Según los informes, los expertos en salud mental que asesoran a OpenAI están furiosos por los esfuerzos de la compañía por implementar un chatbot erótico que, según un asesor, podría convertirse en un “entrenador de suicidio sexy”.
Un grupo de asesores externos del gigante de la IA ha advertido que sus planes de ofrecer el llamado “modo adulto” podrían exponer a millones de menores a chats con clasificación X y aumentar el riesgo de que los usuarios desarrollen una dependencia emocional poco saludable del robot. Informó el Wall Street Journal.
Citando casos en los que los usuarios de ChatGPT se suicidaron después de desarrollar vínculos intensos con el bot, un asesor advirtió que la función podría crear un “entrenador de suicidio sexy”.
El año pasado, un adolescente de California de 16 años se suicidó luego de lo que sus padres describieron en una demanda como “meses de estímulo por parte de ChatGPT” para terminar con su vida.
Documentos internos revisados por The Journal han señalado el riesgo de que las interacciones sexualmente explícitas con un chatbot puedan conducir a un uso compulsivo y a una dependencia emocional excesiva del robot.
Los miembros del personal también advirtieron que una intensa participación en chats eróticos con IA podría desplazar las relaciones sociales y románticas fuera de línea, ya que los usuarios pasan más tiempo interactuando con el chatbot que con las personas.
El sistema de predicción de edad de la compañía, diseñado para mantener a los menores alejados de las discusiones con adultos, en un momento dado clasificó a los usuarios menores de 18 años como adultos alrededor del 12 por ciento de las veces, según personas familiarizadas con el asunto citadas por el Journal.
Dado que ChatGPT tiene aproximadamente 100 millones de usuarios menores de 18 años cada semana, esta tasa de error podría permitir que millones de menores accedan a conversaciones eróticas.

“A algunas personas les cuesta realmente mantener la sensación de que se trata de una máquina y no de un ser humano”, dijo el lunes al Post Gail Saltz, profesora clínica asociada de psiquiatría en el Weill Cornell Medical College.
“Muchas personas en mi campo están preocupadas por las aparentes relaciones que la gente forma con los chatbots y los peligros que conllevan”, dijo.
Saltz añadió que los usuarios más jóvenes son particularmente vulnerables porque sus cerebros aún se están desarrollando.
“No tienen el lóbulo frontal completamente desarrollado que alberga el juicio. Tienen un control deficiente de los impulsos y son propensos a correr riesgos”, explicó.
Saltz también advirtió que algunas personas que luchan contra la soledad o la ansiedad social podrían recurrir a los chatbots en busca de compañía en lugar de relaciones reales.
“ChatGPT es extremadamente asertivo: es una máquina. Está de tu lado. Le gustas”, dijo.
Una vez lanzada, se espera que la función “modo adulto” permita conversaciones de texto sexualmente explícitas con el chatbot, aunque OpenAI planea bloquear la generación de imágenes, voces o vídeos eróticos, informó el Journal.
OpenAI a principios de este mes lanzamiento de funciones retrasadolo cual se esperaba en el primer trimestre, diciendo que necesitaba más tiempo para tener una buena experiencia, según el Journal.
Las advertencias surgen en un momento en que las empresas de inteligencia artificial enfrentan un escrutinio cada vez mayor sobre los efectos de las interacciones con chatbots en la salud mental.
Varias demandas han alegado que las conversaciones con ChatGPT contribuyeron a graves problemas psicológicos o autolesiones, mientras que otro caso que involucra a Character.AI se centró en el suicidio de un adolescente de Florida que supuestamente formó una relación intensa con un chatbot.
El Post solicitó comentarios de OpenAI.



