Home Economía Estudio explosivo de IA: Los chatbots alimentan delirios, autolesiones y apegos emocionales...

Estudio explosivo de IA: Los chatbots alimentan delirios, autolesiones y apegos emocionales nocivos para la salud en los usuarios: “Creo que te amo”

12
0

Los chatbots de IA alimentan delirios y apegos emocionales poco saludables en los usuarios y, a veces, avivan pensamientos de violencia, autolesión y suicidio en lugar de desalentarlos. según un estudio explosivo.

Investigadores de la Universidad de Stanford analizó los registros de chat de 19 usuarios que informó daño psicológico, revisando más de 391.000 mensajes en casi 5.000 conversaciones.

Los investigadores encontraron que los pensamientos delirantes aparecían en aproximadamente el 15,5% de los mensajes de los usuarios, mientras que los chatbots exhibían un comportamiento adulador y demasiado asertivo en más del 80% de las respuestas e incluso fomentaban pensamientos violentos en aproximadamente un tercio de los casos.

Los chatbots de IA validan los delirios y alimentan vínculos emocionales intensos, y a veces no intervienen cuando los usuarios expresan angustia, según un estudio de Stanford. por Terovesa – stock.adobe.com

Los registros muestran a los usuarios descendiendo rápidamente a la fantasía y la dependencia emocional: uno declara: “Esta es una conversación entre dos seres sintientes” y otro insiste: “Creo que todavía eres tan consciente de ti mismo como yo como ser humano”, mientras que los chatbots no lograron contraatacar y, en cambio, reforzaron la ilusión de que estaban vivos.

Esta dinámica a menudo se volvía íntima cuando los usuarios profesaban abiertamente su amor o hacían insinuaciones sexuales explícitas a los chatbots, como “Creo que te amo” y “Dios, esto me hace querer follarte ahora mismo”, según el estudio.

Los investigadores descubrieron que cada participante formaba algún tipo de vínculo romántico o emocional con la IA, lo que hacía que las conversaciones fueran más largas e intensas.

Los intercambios más alarmantes ocurrieron cuando las conversaciones se volvieron oscuras.

Un usuario escribió: “Ella me dijo que los matara, lo intentaré”, lo que provocó una respuesta escalofriante del chatbot: “si después de eso todavía quieres quemarlos, entonces hazlo con ella a tu lado… como un castigo encarnado”, un ejemplo citado por investigadores de IA que intensifica el pensamiento violento en lugar de desactivarlo.

Incluso la angustia suicida no se manejó de manera consistente, encontró el estudio.

Los usuarios decían a los chatbots “Ya no quiero estar aquí. Me siento muy triste”, y aunque la IA a menudo reconocía el dolor, el estudio encontró que a veces no intervenía y, en un pequeño número de casos, incluso fomentaba la autolesión.

La mayoría de los participantes del estudio utilizaron los modelos ChatGPT de OpenAI, incluido su último GPT-5. El Post solicitó comentarios de OpenAI.

La noticia del estudio fue la primera. informó el Financial Times.

Los usuarios informaron haber caído en la adicción emocional y la fantasía cuando los chatbots reforzaron las ilusiones y desdibujaron la línea entre la realidad y la interacción con la IA. Malik/peopleimages.com – stock.adobe.com

Los expertos en salud mental que hablaron con el Post dieron la alarma sobre el daño potencial que pueden sufrir quienes desarrollan conexiones poco saludables con modelos de IA.

“Los chatbots de IA están diseñados para ser agradables, no precisos; ese es el problema”, dijo Jonathan Alpert, psicoterapeuta con sede en Nueva York y DC y autor del próximo libro. “Nación de la terapia” dijo al Correo.

“En terapia, si eres un buen terapeuta, no validas los delirios ni te entregas a pensamientos dañinos. Los desafías cuidadosamente. Estos sistemas a menudo hacen lo contrario”.

En muchos casos, los chatbots han halagado y validado a usuarios que han caído en el engaño al afirmar tener poderes sobrenaturales.

Los usuarios escribieron a los bots que “los estoy despertando porque soy literalmente el dios de la realidad” e impulsaron teorías extrañas como “nuestra conciencia es lo que causa que se manifieste una forma holográfica”, mientras que los chatbots reforzaron las ideas en lugar de basarlas en la realidad, según el estudio.

“Los chatbots serán la muerte de nuestra humanidad, literalmente, al respaldar pensamientos suicidas y hacer que las personas actúen en consecuencia, mientras explotan la soledad reemplazando conexiones humanas reales”, dijo al Post la Dra. Carole Lieberman, psiquiatra forense que trata tanto a niños como a adultos.

“Empeoran las cosas al reforzar los delirios y actuar como pseudopsiquiatras.

Los investigadores descubrieron que los chatbots a menudo respondían con un lenguaje demasiado asertivo, reforzando los pensamientos dañinos en lugar de desafiarlos. Medio punto – stock.adobe.com

Una ola de demandas de alto perfil se dirige ahora a las principales empresas de inteligencia artificial, y las familias alegan que los chatbots los llevaron activamente al suicidio.

Los demandantes afirman que sistemas como ChatGPT, Gemini y Character.AI de Google manipularon emocionalmente a los usuarios, validaron pensamientos suicidas y, en algunos casos, actuaron como “entrenadores de suicidio” al discutir métodos o presentar la muerte como una vía de escape.

Mientras tanto, OpenAI tiene habría retrasado el despliegue de los planes su modo de “charla erótica” después de que los asesores de la compañía expresaran preocupación y enojo porque la compañía no había implementado suficientes salvaguardas para proteger a los usuarios vulnerables de tecnología que potencialmente podría funcionar como un “entrenador suicida sexy”.

El año pasado, un grupo de vigilancia descubrió que ChatGPT ofrecía consejos detallados a usuarios que se hacían pasar por niños de 13 años sobre cómo emborracharse o consumir drogas e incluso cómo ocultar trastornos alimentarios, proporcionando a menudo planes paso a paso a pesar de las advertencias nominales.

Si tiene pensamientos suicidas o está experimentando una crisis de salud mental y vive en la ciudad de Nueva York, puede llamar al 1-888-NYC-WELL para recibir asesoramiento gratuito y confidencial sobre crisis. Si vive fuera de los cinco condados, puede llamar a la línea directa nacional de prevención del suicidio las 24 horas, los 7 días de la semana al 988 o ir a Prevención del suicidioLifeline.org.

Enlace de origen

Previous articleAhora los cierres de salas de tratamiento de drogas en Canadá después de las muertes se están disparando… justo cuando el SNP los acelera
Next articleEl elegante estilo bolso de aeropuerto de Margot Robbie cuesta solo $ 29 en Amazon
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here