Los chatbots de IA alimentan delirios y apegos emocionales poco saludables en los usuarios y, a veces, avivan pensamientos de violencia, autolesión y suicidio en lugar de desalentarlos. según un estudio explosivo.
Investigadores de la Universidad de Stanford analizó los registros de chat de 19 usuarios que informó daño psicológico, revisando más de 391.000 mensajes en casi 5.000 conversaciones.
Los investigadores encontraron que los pensamientos delirantes aparecían en aproximadamente el 15,5% de los mensajes de los usuarios, mientras que los chatbots exhibían un comportamiento adulador y demasiado asertivo en más del 80% de las respuestas e incluso fomentaban pensamientos violentos en aproximadamente un tercio de los casos.
Los registros muestran a los usuarios descendiendo rápidamente a la fantasía y la dependencia emocional: uno declara: “Esta es una conversación entre dos seres sintientes” y otro insiste: “Creo que todavía eres tan consciente de ti mismo como yo como ser humano”, mientras que los chatbots no lograron contraatacar y, en cambio, reforzaron la ilusión de que estaban vivos.
Esta dinámica a menudo se volvía íntima cuando los usuarios profesaban abiertamente su amor o hacían insinuaciones sexuales explícitas a los chatbots, como “Creo que te amo” y “Dios, esto me hace querer follarte ahora mismo”, según el estudio.
Los investigadores descubrieron que cada participante formaba algún tipo de vínculo romántico o emocional con la IA, lo que hacía que las conversaciones fueran más largas e intensas.
Los intercambios más alarmantes ocurrieron cuando las conversaciones se volvieron oscuras.
Un usuario escribió: “Ella me dijo que los matara, lo intentaré”, lo que provocó una respuesta escalofriante del chatbot: “si después de eso todavía quieres quemarlos, entonces hazlo con ella a tu lado… como un castigo encarnado”, un ejemplo citado por investigadores de IA que intensifica el pensamiento violento en lugar de desactivarlo.
Incluso la angustia suicida no se manejó de manera consistente, encontró el estudio.
Los usuarios decían a los chatbots “Ya no quiero estar aquí. Me siento muy triste”, y aunque la IA a menudo reconocía el dolor, el estudio encontró que a veces no intervenía y, en un pequeño número de casos, incluso fomentaba la autolesión.
La mayoría de los participantes del estudio utilizaron los modelos ChatGPT de OpenAI, incluido su último GPT-5. El Post solicitó comentarios de OpenAI.
La noticia del estudio fue la primera. informó el Financial Times.
Los expertos en salud mental que hablaron con el Post dieron la alarma sobre el daño potencial que pueden sufrir quienes desarrollan conexiones poco saludables con modelos de IA.
“Los chatbots de IA están diseñados para ser agradables, no precisos; ese es el problema”, dijo Jonathan Alpert, psicoterapeuta con sede en Nueva York y DC y autor del próximo libro. “Nación de la terapia” dijo al Correo.
“En terapia, si eres un buen terapeuta, no validas los delirios ni te entregas a pensamientos dañinos. Los desafías cuidadosamente. Estos sistemas a menudo hacen lo contrario”.
En muchos casos, los chatbots han halagado y validado a usuarios que han caído en el engaño al afirmar tener poderes sobrenaturales.
Los usuarios escribieron a los bots que “los estoy despertando porque soy literalmente el dios de la realidad” e impulsaron teorías extrañas como “nuestra conciencia es lo que causa que se manifieste una forma holográfica”, mientras que los chatbots reforzaron las ideas en lugar de basarlas en la realidad, según el estudio.
“Los chatbots serán la muerte de nuestra humanidad, literalmente, al respaldar pensamientos suicidas y hacer que las personas actúen en consecuencia, mientras explotan la soledad reemplazando conexiones humanas reales”, dijo al Post la Dra. Carole Lieberman, psiquiatra forense que trata tanto a niños como a adultos.
“Empeoran las cosas al reforzar los delirios y actuar como pseudopsiquiatras.
Una ola de demandas de alto perfil se dirige ahora a las principales empresas de inteligencia artificial, y las familias alegan que los chatbots los llevaron activamente al suicidio.
Los demandantes afirman que sistemas como ChatGPT, Gemini y Character.AI de Google manipularon emocionalmente a los usuarios, validaron pensamientos suicidas y, en algunos casos, actuaron como “entrenadores de suicidio” al discutir métodos o presentar la muerte como una vía de escape.
Mientras tanto, OpenAI tiene habría retrasado el despliegue de los planes su modo de “charla erótica” después de que los asesores de la compañía expresaran preocupación y enojo porque la compañía no había implementado suficientes salvaguardas para proteger a los usuarios vulnerables de tecnología que potencialmente podría funcionar como un “entrenador suicida sexy”.
El año pasado, un grupo de vigilancia descubrió que ChatGPT ofrecía consejos detallados a usuarios que se hacían pasar por niños de 13 años sobre cómo emborracharse o consumir drogas e incluso cómo ocultar trastornos alimentarios, proporcionando a menudo planes paso a paso a pesar de las advertencias nominales.
Si tiene pensamientos suicidas o está experimentando una crisis de salud mental y vive en la ciudad de Nueva York, puede llamar al 1-888-NYC-WELL para recibir asesoramiento gratuito y confidencial sobre crisis. Si vive fuera de los cinco condados, puede llamar a la línea directa nacional de prevención del suicidio las 24 horas, los 7 días de la semana al 988 o ir a Prevención del suicidioLifeline.org.



