Home Economía La herramienta de detección de deepfake de YouTube podría detectar a Google...

La herramienta de detección de deepfake de YouTube podría detectar a Google usando las caras de los creadores para entrenar robots de inteligencia artificial: informe

6
0

Los expertos están haciendo sonar la alarma sobre la herramienta de detección de deepfake de YouTube, una nueva característica de seguridad que podría permitir a Google entrenar sus propios robots de inteligencia artificial con las caras de los creadores, según un informe.

La herramienta brinda a los usuarios de YouTube la posibilidad de enviar un video de su rostro para que la plataforma pueda marcar las cargas que incluyen deepfakes no autorizados de su imagen.

Luego, los creadores pueden solicitar que se eliminen las imitaciones generadas por IA.

La herramienta permite a los usuarios de YouTube enviar un vídeo de su rostro para que la plataforma pueda marcar las cargas que incluyen deepfakes no autorizados de su imagen. por Terovesa – stock.adobe.com

Pero la política de seguridad también permitiría a Google, propietario de YouTube, entrenar sus propios modelos de inteligencia artificial utilizando los datos biométricos de los creadores. CNBC informó el martes.

“Los datos que los creadores proporcionan para registrarse en nuestra herramienta de detección de imitaciones no se utilizan, y nunca se han utilizado, para entrenar los modelos generativos de IA de Google”, dijo al Post Jack Malon, portavoz de YouTube.

“Estos datos se utilizan exclusivamente con fines de verificación de identidad y para potenciar esta funcionalidad específica”.

YouTube le dijo a CNBC que estaba revisando el lenguaje de su política de membresía para potencialmente aclarar cualquier confusión, al tiempo que agregó que la política en sí no cambiaría.

Los gigantes tecnológicos han tenido dificultades para lanzar los últimos modelos de IA sin perder la confianza de los usuarios en línea.

En un esfuerzo por ayudar a los creadores a combatir el uso no autorizado de sus imágenes, YouTube introdujo una herramienta de detección de deepfakes en octubre.

El objetivo es implementar la función para los más de 3 millones de creadores en el Programa de socios de YouTube para fines de enero, dijo a CNBC Amjad Hanif, jefe de producto para creadores de YouTube.

Según un informe, la política de seguridad permitiría a Google, propietario de YouTube, entrenar sus propios modelos de inteligencia artificial utilizando datos biométricos. Imágenes SOPA/LightRocket vía Getty Images

Para registrarse en la herramienta, los usuarios deben cargar una identificación gubernamental y un video de su rostro, que se utiliza para examinar los cientos de horas de imágenes nuevas publicadas en YouTube cada minuto.

Esta descarga biométrica está sujeta a Política de privacidad de Googleque establece que el contenido público se puede utilizar “para ayudar a entrenar los modelos de inteligencia artificial de Google y crear productos y funciones como Google Translate, Gemini Apps y capacidades de inteligencia artificial en la nube”, señaló CNBC.

Todos los vídeos marcados como posibles deepfakes se envían al creador, quien puede solicitar que se eliminen las imágenes.

Hanif dijo que las eliminaciones reales siguen siendo bajas porque muchos creadores están “felices de saber que existe, pero realmente no sienten que valga la pena eliminarlo”.

“Con diferencia, la acción más común es decir: ‘Lo vi, pero estoy de acuerdo'”, dijo a CNBC.

Pero los expertos en seguridad en línea dijeron que las bajas cifras de eliminación se deben más bien a una falta de claridad en torno a la nueva característica de seguridad, no a que los creadores se sientan cómodos con los deepfakes.

Empresas externas como Vermillio y Loti dijeron que su trabajo para ayudar a las celebridades a proteger sus derechos de imagen se ha intensificado a medida que el uso de la IA se generaliza.

Para registrarse en la herramienta de detección de deepfake de YouTube, los usuarios deben cargar una identificación gubernamental y un video de su rostro. ¿Quién es Danny? stock.adobe.com

“A medida que Google compite en IA y los datos de entrenamiento se convierten en oro estratégico, los creadores deben pensar detenidamente si quieren que su rostro sea controlado por una plataforma en lugar de por ellos mismos”, dijo a CNBC Dan Neely, director ejecutivo de Vermillio.

“Su imagen será uno de los activos más valiosos de la era de la IA y, una vez que ceda ese control, es posible que nunca lo recupere”.

El director ejecutivo de Loti, Luke Arrigoni, dijo que los riesgos de la actual política de datos biométricos de YouTube “son enormes”.

Ambos ejecutivos dijeron que no recomendarían a ninguno de sus clientes que se registrara en la herramienta de detección de deepfake de YouTube.

Los creadores de YouTube como Mikhail Varshavski, un médico certificado apodado “Doctor Mike”, han visto más videos deepfake difundidos en línea con el lanzamiento de aplicaciones como Sora de OpenAI y Veo 3 de Google.

Todos los vídeos marcados como posibles deepfakes se envían al creador, quien puede solicitar que se eliminen las imágenes. phimprapha – stock.adobe.com

Varshavski, que ha acumulado más de 14 millones de suscriptores en YouTube en casi una década, desmiente regularmente los mitos sobre la salud y examina los dramas médicos de la televisión en busca de imprecisiones en sus videos.

Dijo que vio por primera vez un deepfake de sí mismo en TikTok, donde parecía estar promocionando un suplemento “milagroso”.

“Eso obviamente me asustó, porque he pasado más de una década invirtiendo para ganarme la confianza del público, diciéndoles la verdad y ayudándolos a tomar buenas decisiones en materia de atención médica”, dijo a CNBC.

“Ver a alguien usar mi imagen para engañar a alguien para que compre algo que no necesita o que podría dañarlo, me asustó en esa situación”.

Actualmente, los creadores no tienen forma de ganar dinero mediante el uso no autorizado de su imagen en vídeos deepfake, incluido el contenido promocional.

A principios de este año, YouTube dio a los creadores la opción de permitir que empresas de terceros utilicen sus vídeos para entrenar modelos de IA, aunque tampoco se les paga en tales casos.

Enlace de origen

Previous articleLa falta de disculpas por los chistes de escolares dice mucho sobre Nigel Farage | Nigel Farage
Next articleJesús robado del belén de Bruselas en un asunto “zombi”
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here