Tres adolescentes están demandando a xAI de Elon Musk por supuestamente permitir que su chatbot Grok sea utilizado para “desnudar” imágenes de ellas, creando material de abuso sexual infantil que se difundió en las plataformas de redes sociales.
Un solo autor arrestado en diciembre recopiló imágenes y videos de más de 18 niñas, muchas de las cuales asistían a la misma escuela, y usó Grok para “desvestir” a las menores, según una demanda presentada el lunes en el Distrito Norte de California.
Los materiales editados, incluida una imagen de Instagram de una adolescente quitándose un bikini azul para “representarla sin ropa”, se compartieron en los canales de Telegram y Discord, donde el delincuente intercambió las imágenes generadas por IA por “contenido sexual explícito de otros menores”, alega la demanda.
“Estos son niños cuyas fotografías escolares y familiares fueron transformadas en material de abuso sexual infantil mediante una herramienta de inteligencia artificial de una compañía de mil millones de dólares y luego intercambiadas entre depredadores”, dijo al Post en un comunicado Annika Martin de Lieff Cabraser, una de las abogadas que representa a los demandantes.
“Elon Musk y xAI diseñaron deliberadamente Grok para producir contenido sexualmente explícito con fines de lucro, sin tener en cuenta a los niños y adultos que resultarían perjudicados”, añadió.
“La vida de estas niñas se ha visto trastornada por la devastadora pérdida de privacidad y el profundo sentimiento de violación que ningún niño debería sentir jamás. »
xAI no respondió de inmediato a la solicitud de comentarios del Post.
En enero, mientras Grok enfrentaba reacciones violentas por generar una avalancha de imágenes sexualizadas de mujeres, Musk dijo que “no tenía conocimiento de ninguna imagen de menores desnudos generada por Grok”. Literalmente cero”.
El chatbot se negará a producir nada ilegal, así como a “editar imágenes de personas reales con ropa reveladora”, aunque los piratas informáticos pueden alterar la herramienta, pero en este caso, “solucionaremos el error inmediatamente”, escribió Musk en ese momento.
En noviembre, la cuenta de Grok publicó instrucciones sobre cómo acceder al nuevo modo “picante” del chatbot, que podría usarse para crear contenido “NSFW” o “no seguro para el trabajo”, que generalmente hace referencia a imágenes sexuales o violentas.
Según la demanda, la demandante Jane Doe 1 recibió un mensaje de Instagram en diciembre alertándola sobre fotos tomadas con Grok que circulaban en línea y que la mostraban “transformada en poses sexualmente explícitas”, así como un video generado por IA que “la mostraba desnudándose hasta quedar completamente desnuda”.
Una de las imágenes fue creada a partir de una fotografía de la adolescente en el evento de bienvenida de su escuela, mientras que otra aparentemente alteró la foto de su anuario para hacerla aparecer en topless, según la demanda.
La demanda alega que sufrió “angustia emocional grave”, incluidas pesadillas recurrentes, dificultad para comer y dormir y dificultad para asistir a la escuela, lo que le “provocaba ansiedad”.
La adolescente recibió un enlace a un servidor de Discord “que contenía imágenes y vídeos de al menos otras 18 niñas menores, muchas de las cuales Jane Doe 1 reconoció en su escuela”, afirma la demanda.
La policía abrió una investigación criminal sobre el autor, que fue arrestado en diciembre pasado, según registros judiciales. Los cargos contra la persona no fueron especificados en la demanda.
En febrero, los otros dos demandantes en el caso, ambos menores de edad, se enteraron a través de la investigación de que el criminal también había utilizado sus imágenes para crear material de abuso sexual infantil, afirma la demanda.
Los tres demandantes buscan daños y perjuicios por violaciones de pornografía infantil, según la denuncia, que argumenta que editar imágenes de niños reales para crear contenido sexual constituye la creación de pornografía infantil.
La demanda alegaba que xAI, a sabiendas, permitió que su chatbot generara imágenes sexuales de menores en un esfuerzo por monetizar sus herramientas de inteligencia artificial.
Es probable que el daño persiga a los adolescentes durante décadas, ya que probablemente recibirán alertas del Centro Nacional para Niños Desaparecidos y Explotados de que “los acusados criminales han poseído, recibido o distribuido archivos CSAM que los representan” por el resto de sus vidas, dice la demanda.



