Home Noticias Objetivo para evitar que sus chatbots de IA hable con adolescentes sobre...

Objetivo para evitar que sus chatbots de IA hable con adolescentes sobre suicidio

4
0

El objetivo decía que presentará más pasamanos en sus chatbots de inteligencia artificiales (IA), incluido evitar que hablen con adolescentes sobre el suicidio, la auto -mutilación y los trastornos alimentarios.

Llega dos semanas después de que un senador estadounidense inició una investigación sobre el gigante de la tecnología después de las anotaciones en un documento interno filtrado sugirió que sus productos de IA podrían haber “Sensual” golpea a los adolescentes.

La compañía describió las notas en el documento, obtenidas por Reuters, como erróneas e inconsistentes con sus políticas que prohíben cualquier contenido sexual.

Pero ahora dice que hará que sus chatbots dirijan a los adolescentes a recursos especializados, en lugar de involucrarse con ellos en temas sensibles como el suicidio.

“Hemos construido protecciones adolescentes en nuestros productos de IA desde el principio, incluido su diseño para responder de manera segura a las instrucciones sobre la auto-mutilación, el suicidio y los alimentos desordenados”, dijo un portavoz.

La empresa Le dijo a la publicación de Tech News TechCrunch El viernes, agregaría más pasamanos a sus sistemas “como precaución adicional” y limitaría temporalmente los adolescentes de Chatbots podrían interactuar.

Pero Andy Burrows, la cabeza de la Fundación Molly Rose, dijo que era “sorprendente” que el objetivo proporcionara chatbots que pudieran poner a los jóvenes en riesgo de daño.

“Aunque más medidas de seguridad están bien, deben ocurrir pruebas de seguridad sólidas antes de que los productos se coloquen en el mercado, no retrospectivamente cuando se producen daños”, dijo.

“El objetivo debe actuar de manera rápida y decisiva para implementar medidas de seguridad más fuertes para los chatbots de IA y Ofcom debería estar listo para investigar si estas actualizaciones no pueden mantener a los niños seguros”.

El objetivo dijo que las actualizaciones de sus sistemas de IA están en marcha. Ya pone a los usuarios de 13 a 18 años en “cuentas adolescentes” en Facebook, Instagram y Messenger, con configuraciones de contenido y privacidad que tienen como objetivo darles una experiencia más segura.

Le dije a BBC en abril que también permitirían a los padres y guardianes ver chatbots de IA que sus adolescentes habían hablado en los últimos siete días.

Surgen cambios en medio de preocupaciones sobre el potencial de chatbots de IA Para engañar a los usuarios jóvenes o vulnerables.

Una pareja de California recientemente demandó a Chatgpt-Maker Openai por la muerte de su hijo adolescente, afirmando que su chatbot lo alentó a quitarse la vida.

El proceso ocurrió después de que la compañía anunció cambios para promover el uso más saludable de ChatGPT el mes pasado.

“La IA puede parecer más receptiva y personal que las tecnologías anteriores, especialmente para las personas vulnerables que sufren sufrimiento mental o emocional”, dijo la compañía. En una publicación de blog.

Mientras tanto, Reuters Reportado el viernes Las herramientas de IA del objetivo, permitiendo a los usuarios crear chatbots habían sido utilizados por algunos, incluido un empleado de meta, para producir chatbots de “parodia” de celebridades femeninas.

Entre los chatbots de celebridades vistos por la agencia de noticias estaban algunos utilizando la similitud del artista Taylor Swift y la actriz Scarlett Johansson.

Reuters dijo que los avatares “a menudo insistían en que eran verdaderos actores y artistas” y “rutinariamente hicieron avances sexuales” durante sus semanas de prueba.

Dijo que las herramientas de objetivos también permitieron la creación de chatbots que representan a las celebridades infantiles y, en un caso, generaron una imagen fotorrealista y sin camisa de una estrella de hombres jóvenes.

Varios de los chatbots en cuestión fueron eliminados más tarde por el objetivo, dijo.

“Al igual que otros, permitimos la generación de imágenes que contienen figuras públicas, pero nuestras políticas tienen la intención de prohibir imágenes desnudas, íntimas o sexualmente sugerentes”, dijo una puerta de gol.

Agregaron que sus reglas de estudio de IA prohíben la “representación directa de figuras públicas”.

Enlace de origen

Previous articleRepublicanos los verdaderos hipócritas en la gerrymandering del Congreso
Next articleUS Open 2025: Lorenzo Musetti del lado de Jannik Sywats
Carmen Ruiz
Carmen Ruiz es periodista de noticias con 7 años de experiencia cubriendo actualidad local, nacional e internacional. Graduada en Periodismo por la Universidad de Granada, Carmen ha trabajado en medios digitales y televisivos, especializándose en reportajes de sucesos, política y sociedad. Carmen se destaca por su compromiso con la veracidad, la claridad y la imparcialidad en la información. Su objetivo es ofrecer a los lectores noticias confiables y bien documentadas, explicando los acontecimientos de manera comprensible y contextualizada. Además, colabora en podcasts y programas informativos, aportando análisis y comentarios basados en hechos. Teléfono: +34 682 345 378 Correo: carmenruiz@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here