El regulador de Internet de Australia dijo que podría presionar a los motores de búsqueda y tiendas de aplicaciones para que bloqueen los servicios de inteligencia artificial que no verifican las edades de los usuarios después de que un estudio de Reuters encontró que más de la mitad no había hecho pública ninguna medida para cumplir antes de la fecha límite de la próxima semana.
La advertencia refleja uno de los esfuerzos más agresivos del mundo para frenar a las empresas de inteligencia artificial, que enfrentan un número creciente de demandas por no detener -e incluso alentar- la autolesión o la violencia, mientras que los investigadores advierten que tales plataformas son más dañinas para la salud mental de los jóvenes que las redes sociales.
En diciembre, Australia se convirtió en el primer país en prohibir las redes sociales para adolescentes, alegando problemas de salud mental, lo que provocó una ola de líderes mundiales que dijeron que harían lo mismo. El país ahora dice que está llevando a cabo una ofensiva similar contra la IA al imponer restricciones de edad al contenido al que las personas pueden acceder usando esta tecnología.
A partir del 9 de marzo, los servicios de Internet en Australia, incluidas herramientas de búsqueda como ChatGPT de OpenAI y chatbots acompañantes menos conocidos, deben impedir que los australianos menores de 18 años reciban contenido pornográfico, de violencia extrema, de autolesiones y de trastornos alimentarios, o enfrentarán multas de hasta 49,5 millones de dólares australianos (35 millones de dólares).
“eSafety utilizará toda la gama de nuestros poderes en casos de incumplimiento”, dijo un portavoz del comisionado, incluidas “medidas relativas a los servicios de control de acceso, como motores de búsqueda y tiendas de aplicaciones que proporcionan puntos de acceso clave a servicios particulares”.
OpenAI y la startup de chatbot relacionada Character.AI se han enfrentado a demandas por muerte por negligencia por sus interacciones con usuarios jóvenes, mientras que OpenAI admitió esta semana haber desactivado la cuenta ChatGPT de un adolescente sospechoso de un tiroteo masivo en Canadá meses antes del ataque, sin informar a las autoridades.
Australia aún no ha recibido informes de violencia o autolesiones relacionadas con los chatbots, pero el regulador informó haber recibido informes de niños de tan solo 10 años hablando con herramientas interactivas impulsadas por IA durante hasta seis horas al día.
A eSafety le “preocupaba que las empresas de inteligencia artificial estuvieran explotando la manipulación emocional, el antropomorfismo y otras técnicas avanzadas para atraer, involucrar y afianzar a los jóvenes en el uso excesivo de chatbots”, dijo el portavoz.
Apple, el principal operador de la tienda de aplicaciones, no respondió, pero dijo la semana pasada en su sitio web que utilizaría “métodos razonables” para impedir que los menores de 18 años descarguen aplicaciones en Australia y otras jurisdicciones que introducen restricciones de edad, sin especificar los métodos.
Un portavoz de Google, el principal proveedor de motores de búsqueda de Australia y el segundo mayor operador de tiendas de aplicaciones, declinó hacer comentarios.
Jennifer Duxbury, jefa de políticas del grupo de la industria de Internet DIGI, que dirigió la redacción del código de IA antes de que fuera aprobado por el regulador, dijo que eSafety estaba tratando de informar a los servicios de chatbot sobre las nuevas reglas, pero “en última instancia, cualquier servicio que opere en Australia es responsable de comprender sus obligaciones legales y garantizar que las cumplan”.
Una semana antes de la fecha límite de Australia, entre los 50 productos de inteligencia artificial basados en texto más populares, nueve habían implementado o anunciado planes para sistemas de garantía de edad, según el estudio de Reuters. La revisión se basó en la respuesta de cada plataforma a las solicitudes que solicitaban contenido restringido y políticas de moderación, declaraciones publicadas que incluían términos de servicio y declaraciones a Reuters.
Otras once plataformas tenían filtros de contenido generales o planeaban impedir que todos los australianos usaran su servicio, medidas que cumplirían con la nueva ley al mantener el contenido restringido a todos los usuarios, dejando a 30 sin ninguna medida aparente tomada para seguir las nuevas reglas, encontró la revisión.
La mayoría de los principales asistentes de investigación basados en chat, como ChatGPT, Replika y Claude de Anthropic, habían comenzado a implementar sistemas de garantía de edad o filtros generales. El proveedor de chatbot Character.AI ha eliminado el chat abierto para menores de 18 años.
Los proveedores de chatbot complementarios Candy AI, Pi, Kindroid y Nomi dijeron a Reuters que planeaban cumplir sin más detalles, mientras que HammerAI dijo que inicialmente bloquearía sus servicios desde Australia para cumplir con el código.
Pero estos eran una minoría. Entre los chatbots complementarios, tres cuartas partes no tenían ningún filtro o garantía de edad funcional o planificada, mientras que una sexta parte no tenía una dirección de correo electrónico publicada para informar presuntas infracciones, lo cual también es obligatorio.
Grok, la herramienta de búsqueda basada en chat de Elon Musk, que está bajo investigación global por supuesta incapacidad para detener la producción de imágenes sintéticas sexualizadas de niños, no tenía medidas de garantía de edad ni filtros de contenido textual, según descubrió Reuters. La empresa matriz de Grok, xAI, no respondió a una solicitud de comentarios.
Lisa Given, directora del Centro de Entornos de Información de IA Humana de la Universidad RMIT, dijo que los hallazgos de Reuters no eran sorprendentes porque “la mayoría de estas herramientas están diseñadas sin considerar el daño potencial y la necesidad de este tipo de controles de seguridad”.
“Es como si… estuviéramos probando todas estas cosas para estas empresas y ellos estuvieran tratando de ver hasta qué punto la empresa está dispuesta a ser empujada”, dijo.



