Los expertos están haciendo sonar la alarma sobre la herramienta de detección de deepfake de YouTube, una nueva característica de seguridad que podría permitir a Google entrenar sus propios robots de inteligencia artificial con las caras de los creadores, según un informe.
La herramienta brinda a los usuarios de YouTube la posibilidad de enviar un video de su rostro para que la plataforma pueda marcar las cargas que incluyen deepfakes no autorizados de su imagen.
Luego, los creadores pueden solicitar que se eliminen las imitaciones generadas por IA.
Pero la política de seguridad también permitiría a Google, propietario de YouTube, entrenar sus propios modelos de inteligencia artificial utilizando los datos biométricos de los creadores. CNBC informó el martes.
“Los datos que los creadores proporcionan para registrarse en nuestra herramienta de detección de imitaciones no se utilizan, y nunca se han utilizado, para entrenar los modelos generativos de IA de Google”, dijo al Post Jack Malon, portavoz de YouTube.
“Estos datos se utilizan exclusivamente con fines de verificación de identidad y para potenciar esta funcionalidad específica”.
YouTube le dijo a CNBC que estaba revisando el lenguaje de su política de membresía para potencialmente aclarar cualquier confusión, al tiempo que agregó que la política en sí no cambiaría.
Los gigantes tecnológicos han tenido dificultades para lanzar los últimos modelos de IA sin perder la confianza de los usuarios en línea.
En un esfuerzo por ayudar a los creadores a combatir el uso no autorizado de sus imágenes, YouTube introdujo una herramienta de detección de deepfakes en octubre.
El objetivo es implementar la función para los más de 3 millones de creadores en el Programa de socios de YouTube para fines de enero, dijo a CNBC Amjad Hanif, jefe de producto para creadores de YouTube.
Para registrarse en la herramienta, los usuarios deben cargar una identificación gubernamental y un video de su rostro, que se utiliza para examinar los cientos de horas de imágenes nuevas publicadas en YouTube cada minuto.
Esta descarga biométrica está sujeta a Política de privacidad de Googleque establece que el contenido público se puede utilizar “para ayudar a entrenar los modelos de inteligencia artificial de Google y crear productos y funciones como Google Translate, Gemini Apps y capacidades de inteligencia artificial en la nube”, señaló CNBC.
Todos los vídeos marcados como posibles deepfakes se envían al creador, quien puede solicitar que se eliminen las imágenes.
Hanif dijo que las eliminaciones reales siguen siendo bajas porque muchos creadores están “felices de saber que existe, pero realmente no sienten que valga la pena eliminarlo”.
“Con diferencia, la acción más común es decir: ‘Lo vi, pero estoy de acuerdo'”, dijo a CNBC.
Pero los expertos en seguridad en línea dijeron que las bajas cifras de eliminación se deben más bien a una falta de claridad en torno a la nueva característica de seguridad, no a que los creadores se sientan cómodos con los deepfakes.
Empresas externas como Vermillio y Loti dijeron que su trabajo para ayudar a las celebridades a proteger sus derechos de imagen se ha intensificado a medida que el uso de la IA se generaliza.
“A medida que Google compite en IA y los datos de entrenamiento se convierten en oro estratégico, los creadores deben pensar detenidamente si quieren que su rostro sea controlado por una plataforma en lugar de por ellos mismos”, dijo a CNBC Dan Neely, director ejecutivo de Vermillio.
“Su imagen será uno de los activos más valiosos de la era de la IA y, una vez que ceda ese control, es posible que nunca lo recupere”.
El director ejecutivo de Loti, Luke Arrigoni, dijo que los riesgos de la actual política de datos biométricos de YouTube “son enormes”.
Ambos ejecutivos dijeron que no recomendarían a ninguno de sus clientes que se registrara en la herramienta de detección de deepfake de YouTube.
Los creadores de YouTube como Mikhail Varshavski, un médico certificado apodado “Doctor Mike”, han visto más videos deepfake difundidos en línea con el lanzamiento de aplicaciones como Sora de OpenAI y Veo 3 de Google.
Varshavski, que ha acumulado más de 14 millones de suscriptores en YouTube en casi una década, desmiente regularmente los mitos sobre la salud y examina los dramas médicos de la televisión en busca de imprecisiones en sus videos.
Dijo que vio por primera vez un deepfake de sí mismo en TikTok, donde parecía estar promocionando un suplemento “milagroso”.
“Eso obviamente me asustó, porque he pasado más de una década invirtiendo para ganarme la confianza del público, diciéndoles la verdad y ayudándolos a tomar buenas decisiones en materia de atención médica”, dijo a CNBC.
“Ver a alguien usar mi imagen para engañar a alguien para que compre algo que no necesita o que podría dañarlo, me asustó en esa situación”.
Actualmente, los creadores no tienen forma de ganar dinero mediante el uso no autorizado de su imagen en vídeos deepfake, incluido el contenido promocional.
A principios de este año, YouTube dio a los creadores la opción de permitir que empresas de terceros utilicen sus vídeos para entrenar modelos de IA, aunque tampoco se les paga en tales casos.



