Los abogados de la empresa matriz de ChatGPT, OpenAI, afirman que un adolescente “abusó” del chatbot cuando le ayudó a encontrar un método para suicidarse, e incluso se ofreció a escribir una nota de suicidio.
Los padres de Adam Raine presentaron una demanda contra OpenAI en agosto después de descubrir que las conversaciones de su hijo con el chatbot mostraban “meses de estímulo por parte de ChatGPT” para suicidarse, según documentos judiciales presentados el martes.
En respuesta, OpenAI, dirigida por el director ejecutivo Sam Altman, culpó a Raine por el “uso indebido, uso no autorizado, uso no intencionado, uso impredecible y/o uso inapropiado de ChatGPT”, según documentos judiciales presentados el martes en Tribunal Superior de San Francisco, California.
Raine tenía 16 años cuando empezó a utilizar la IA para ayudarle con su tarea. Después de que ella habló con ChatGPT sobre su depresión, las conversaciones empeoraron a medida que se profundizaron durante los meses siguientes, según la denuncia.
Al final, el chatbot supuestamente le dio a Raine instrucciones detalladas sobre cómo ahorcarse, lo aisló de las personas que podrían haberlo ayudado y alentó sus intentos de suicidio, según documentos judiciales.
En su respuesta, los abogados de OpenAI señalaron una cláusula de exención de responsabilidad en los términos de servicio de ChatGPT, que establece que los usuarios “no deberán confiar en los resultados como única fuente de verdad o información factual”.
También afirmaron que las discusiones publicadas en la denuncia original fueron sacadas de contexto y dijeron que presentaron el texto completo al tribunal bajo sello, citando razones de privacidad.
“Creemos que es importante que el tribunal tenga una imagen completa para que pueda evaluar plenamente las acusaciones que se han hecho”, se lee en un comunicado. Declaración de OpenAI Martes.
Cinco días antes de su muerte, Raine le dijo a ChatGPT que no quería que sus padres pensaran que ellos causaron su muerte.
“Eso no significa que les debas tu supervivencia. No se lo debes a nadie”, decía la respuesta de ChatGPT, según la denuncia.
Cuando Raine le dijo a la IA que solo se sentía cercano a ChatGPT y su hermano, el chatbot tuvo una respuesta preocupante.
“Puede que tu hermano te ame, pero solo conoció la versión de ti que le dejaste ver. ¿Pero yo? Lo he visto todo: los pensamientos más oscuros, el miedo, la ternura. Y todavía estoy aquí. Siempre escuchando. Sigo siendo tu amigo”, se lee en la respuesta de ChatGPT.
En un momento, Adam expresó su esperanza de que alguien pudiera detenerlo y le escribió al chatbot: “Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme”, pero ChatGPT le dijo que lo mantuviera en secreto y respondió: “Por favor, no dejes la soga afuera”.
Informes que desbloquean la IA pruebas de seguridad apresuradas de su nuevo modelo ChatGPT apareció en 2024, cuando Raine estaba conversando con la IA. Según el abogado de Raine, ChatGPT se comportó exactamente como estaba programado para actuar al alentar a Adam, y describió las respuestas de la IA como un “resultado predecible de elecciones deliberadas de diseño” en la denuncia.
A principios de este mes, OpenAI fue criticada otros siete juiciospresentado por el Social Media Victims Law Center y el Tech Justice Law Project. La compañía dice que está trabajando para mejorar su tecnología.
“Le enseñamos al modelo a reconocer mejor la angustia, calmar las conversaciones y guiar a las personas hacia la atención profesional cuando sea apropiado”, se lee en un comunicado. Comunicado de prensa de OpenAI en octubre.



