Home Economía OpenAI advirtió que ChatGPT podría convertirse en un ‘entrenador de suicidio sexy’...

OpenAI advirtió que ChatGPT podría convertirse en un ‘entrenador de suicidio sexy’ en medio de la promoción del modo de chat erótico: informe

8
0

Según los informes, los expertos en salud mental que asesoran a OpenAI están furiosos por los esfuerzos de la compañía por implementar un chatbot erótico que, según un asesor, podría convertirse en un “entrenador de suicidio sexy”.

Un grupo de asesores externos del gigante de la IA ha advertido que sus planes de ofrecer el llamado “modo adulto” podrían exponer a millones de menores a chats con clasificación X y aumentar el riesgo de que los usuarios desarrollen una dependencia emocional poco saludable del robot. Informó el Wall Street Journal.

Citando casos en los que los usuarios de ChatGPT se suicidaron después de desarrollar vínculos intensos con el bot, un asesor advirtió que la función podría crear un “entrenador de suicidio sexy”.


El director ejecutivo de OpenAI, Sam Altman, argumentó que la empresa debería permitir que los usuarios adultos entablen conversaciones explícitas con un chatbot como parte de un “modo adulto” propuesto. REUTERS

El año pasado, un adolescente de California de 16 años se suicidó luego de lo que sus padres describieron en una demanda como “meses de estímulo por parte de ChatGPT” para terminar con su vida.

Documentos internos revisados ​​por The Journal han señalado el riesgo de que las interacciones sexualmente explícitas con un chatbot puedan conducir a un uso compulsivo y a una dependencia emocional excesiva del robot.

Los miembros del personal también advirtieron que una intensa participación en chats eróticos con IA podría desplazar las relaciones sociales y románticas fuera de línea, ya que los usuarios pasan más tiempo interactuando con el chatbot que con las personas.

El sistema de predicción de edad de la compañía, diseñado para mantener a los menores alejados de las discusiones con adultos, en un momento dado clasificó a los usuarios menores de 18 años como adultos alrededor del 12 por ciento de las veces, según personas familiarizadas con el asunto citadas por el Journal.

Dado que ChatGPT tiene aproximadamente 100 millones de usuarios menores de 18 años cada semana, esta tasa de error podría permitir que millones de menores accedan a conversaciones eróticas.


Los expertos advierten que las conversaciones sexualmente explícitas con chatbots podrían provocar dependencia emocional y uso compulsivo.
Los expertos advierten que las conversaciones sexualmente explícitas con chatbots podrían provocar dependencia emocional y uso compulsivo. Acciones de Wordley Calvo – stock.adobe.com

“A algunas personas les cuesta realmente mantener la sensación de que se trata de una máquina y no de un ser humano”, dijo el lunes al Post Gail Saltz, profesora clínica asociada de psiquiatría en el Weill Cornell Medical College.

“Muchas personas en mi campo están preocupadas por las aparentes relaciones que la gente forma con los chatbots y los peligros que conllevan”, dijo.

Saltz añadió que los usuarios más jóvenes son particularmente vulnerables porque sus cerebros aún se están desarrollando.

“No tienen el lóbulo frontal completamente desarrollado que alberga el juicio. Tienen un control deficiente de los impulsos y son propensos a correr riesgos”, explicó.

Saltz también advirtió que algunas personas que luchan contra la soledad o la ansiedad social podrían recurrir a los chatbots en busca de compañía en lugar de relaciones reales.

“ChatGPT es extremadamente asertivo: es una máquina. Está de tu lado. Le gustas”, dijo.

Una vez lanzada, se espera que la función “modo adulto” permita conversaciones de texto sexualmente explícitas con el chatbot, aunque OpenAI planea bloquear la generación de imágenes, voces o vídeos eróticos, informó el Journal.

OpenAI a principios de este mes lanzamiento de funciones retrasadolo cual se esperaba en el primer trimestre, diciendo que necesitaba más tiempo para tener una buena experiencia, según el Journal.

Las advertencias surgen en un momento en que las empresas de inteligencia artificial enfrentan un escrutinio cada vez mayor sobre los efectos de las interacciones con chatbots en la salud mental.

Varias demandas han alegado que las conversaciones con ChatGPT contribuyeron a graves problemas psicológicos o autolesiones, mientras que otro caso que involucra a Character.AI se centró en el suicidio de un adolescente de Florida que supuestamente formó una relación intensa con un chatbot.

El Post solicitó comentarios de OpenAI.



Enlace de origen

Previous articleFeliz de ser parte del CSK, jugar con Dhoni: Sanju Samson antes de la IPL 2026
Next articleUna nueva fase en su estrategia marítima
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here