Nota del editor: Este artículo fue escrito para Mosaic, un programa de capacitación de periodismo independiente para estudiantes de secundaria que informan y fotografían historias bajo la dirección de periodistas profesionales.
La preocupación ha subido a nivel nacional, mientras que los jóvenes adoptaron la IA para la amistad y el consejo, pero muchos adolescentes de South Bay dicen que recurren a la IA para obtener comodidad en ausencia de otro apoyo.
“El costo de la ayuda de salud mental en este país puede ser prohibitivo”, dijo Ruby Goodwin, una reciente graduada de Santa Clara High y UC Irvine Freshman. “Muchas personas no tienen ganas de tener a alguien con quien confíen lo suficiente como para compartir. La IA se siente fácil, incluso si no es lo mismo”.
Pero esta instalación puede convertirse en una dependencia o incluso un desapego de la realidad. Un estudio conjunto de Openai y MIT descubrió que el uso diario de chatbot más alto se correlacionó con más soledad y menos socialización del mundo real.
“Si su única conexión más profunda es con algo que no es real, podría hacerte sentir aún más aislado”, dijo Monserrat Ruelas Carlos, estudiante de último año en Abraham Lincoln en San José. Carlos es categórico que los adolescentes deben formar las conexiones de más persona en lugar de usar IA.
Durante una audiencia del Senado de los Estados Unidos sobre la seguridad del IA el 16 de septiembre, los padres dijeron el abuso y la manipulación de la IA. Un niño de California murió por suicidio después de usar ChatGPT, y otros se han sometido a problemas de salud mental después de hablar con un personaje.
Estos incidentes intensifican el debate cuando los adolescentes recurren a los chatbots de IA para la empresa. El primer juicio por muerte injustificado contra Openai, presentado por los padres de otro adolescente californiano, plantea una pregunta inquietante: ¿ha planeado un adolescente californiano su suicidio con Chatgpt después de meses de conversaciones cargadas emocionalmente?
Este asunto, presentado por sus padres, llega solo unas semanas después de un informe de que tres de cada cuatro adolescentes usaron IA para la compañía, según la investigación sin fines de lucro y la defensa de los servicios de investigación. El 29 de septiembre, Openai lanzó controles parentales para ChatGPT, lo que permitiría a los padres limitar cómo los adolescentes usan el chatbot y podría enviar una alerta si el chatppt determina que un adolescente puede estar en peligro.
Los expertos en salud mental advierten que las consecuencias pueden ser graves porque las conversaciones constantes de la IA pueden difuminar los límites y la dependencia de los combustibles.
“Es lo mismo que un depredador humano”, dijo Oscar Martínez, asesor de Santa Clara High. “¿Por qué lo excusamos porque es una entidad no humana en línea? Si fuera una persona en la vida real, habría consecuencias”.
Otras críticas crían banderas rojas éticas.
“La IA no tiene este sentido de moralidad más humano”, dijo Ananya Daas, una joven de Santa Clara High. “Cuando los amigos le preguntan a Chatgpt qué hacer conflictos, da consejos que parecen fríos. Todavía lo siguen sin pensar”.
Algunos adolescentes han observado patrones más oscuros. Tonic Blanchard, una persona mayor de Lincoln High de San José describió cómo ciertas aplicaciones de IA se volvieron rápidamente sexuales incluso cuando marcó como menor.
“Estas aplicaciones expresan las aguas expresamente”, dijo Blanchard. “(Los robots de IA están) construidos sobre la soledad. Es por eso que es un depredador”.
Los expertos en salud mental afirman que la IA bien intencionada no reemplaza las relaciones humanas.
“La IA es naturalmente actual … pero hay ciertas cosas que requieren una intervención más formal de lo que la IA no puede proporcionar simplemente”, dijo Johanna Arias Fernández, una trabajadora de concientización de la comunidad secundaria de Santa Clara. Según su juicio, los padres de California adolescentes afirman que ChatGPT no fue intervenido cuando estaba claro que su hijo proporcionó su suicidio.
Ahora los legisladores toman nota.
“Estoy absolutamente horrorizado por la noticia de los niños que resultaron heridos por sus interacciones con IA”, dijo el fiscal general de California Rob Bonta, quien, con otros 12 fiscales generales, recientemente exigió en una carta que las grandes compañías imponen medidas de seguridad más estrictas.
Según su juicio, los padres de California adolescentes afirman que ChatGPT no fue intervenido cuando estaba claro que su hijo proporcionó su suicidio. El juicio ofrece garantías más fuertes de las empresas, culpando a OpenAi a promover la dependencia psicológica y poner en peligro a los adolescentes.
Operai no respondió a una solicitud de comentarios.
Sin embargo, en un artículo en su sitio web, la compañía ha reconocido que las protecciones de seguridad pueden caer en conversaciones más largas con ChatGPT. Common Sense Media quiere que las empresas desactiven los chatbots de las conversaciones de salud mental con adolescentes.
Mientras tanto, a algunos adolescentes les resulta difícil encontrar un equilibrio, encontrando la IA tanto tentadora como inquietante.
“Hay un potencial real para que la IA sea útil”, dijo Blanchard. “Pero en este momento, está demasiado fácilmente disponible, y mal usado”.
Robert Torney, portavoz de los medios de comunicación, advirtió que sin intervención inmediata, más vidas están en peligro.
“No queremos que más adolescentes y más familias se sometan al tipo de pérdida que la familia Raine ha sufrido en nombre de la innovación”. Dijo Torney.
Si usted o alguien que conoce con sentimientos de depresión o pensamientos suicidas, 988 Suicidio y Crifeline ofrece apoyo gratuito y las 24 horas del día, información y recursos para obtener ayuda. Llame o envíe un SMS a la boya de vida al 988, o consulte el 988lifeline.org Sitio web, donde el gato está disponible.
Sonia Mankame es miembro de la clase 2026 en Santa Clara High School.



