Home Noticias AI Chatbots Security para niños y adolescentes enfrenta la investigación

AI Chatbots Security para niños y adolescentes enfrenta la investigación

10
0

Un regulador de EE. UU. Investiga siete compañías de tecnología sobre cómo sus chatbots de inteligencia artificial (IA) interactúan con los niños.

La Comisión Federal de Comercio (FTC) solicita información sobre cómo las empresas monetizan estos productos y si tienen medidas de seguridad.

Los impactos de los chatbots de IA en los niños son un tema candente, con las preocupaciones de que las personas más jóvenes son particularmente vulnerables debido al hecho de que pudo imitar las conversaciones y emociones humanas, a menudo presentándose como amigos o compañeros.

Se abordaron las siete compañías, Alphabet, OpenAI, personaje.Ai, Snap, Xai, Objetivo y su subsidiaria de Instagram.

El presidente de la FTC, Andrew Ferguson, dijo que la investigación “nos ayudará a comprender mejor cómo las empresas de IA están desarrollando sus productos y los pasos que están tomando para proteger a los niños”.

Pero agregó que el regulador garantizaría que “Estados Unidos mantenga su papel como líder mundial en este nuevo y emocionante sector”.

Carather.ai dijo a Reuters que era una oportunidad para compartir información con los reguladores, mientras que el SNAP dijo que apoyaba el “desarrollo atento” de la IA que equilibra la innovación con la seguridad.

Operai ha reconocido las debilidades en sus protecciones, señalando que son menos confiables en largas conversaciones.

La medida sigue a las demandas contra las empresas de IA por parte de las familias que dicen que sus hijos adolescentes murieron de suicidio después de prolongadas conversaciones de chatbots.

En California, los padres de Adam Raine, de 16 años Procesamiento OpenAi A lo largo de su muerte, reclamando su chatbot, chatgpt, lo alentó a quitarse la vida.

Argumentan que ChatGPT validó sus “pensamientos más dañinos y autodestructivos”.

Openai dijo en agosto que estaba revisando la presentación.

“Extendemos nuestras más profundas simpatías a la familia Raina durante este momento difícil”, dijo la compañía.

El objetivo también enfrentó críticas después de que se revelaron las pautas internas, una vez que permitió que los camaradas de IA tuvieran Conversaciones “románticas o sensuales” con menores.

EL Pedidos de FTC Solicite a las empresas de las empresas sobre sus prácticas, incluida la forma en que desarrollan y aprueban los personajes, miden sus impactos en los niños y aplican restricciones de edad.

Su autoridad permite una amplia investigación de hechos sin lanzar acciones de solicitud.

El regulador dice que también quieren comprender cómo las empresas se equilibran con salvaguardas, cómo están informados a los padres y si los usuarios vulnerables están protegidos adecuadamente.

Los riesgos con los chatbots de IA también se extienden más allá de los niños.

En agosto, Reuters informó Un hombre de 76 años con discapacidades cognitivas que murieron después de ponerse en camino de encontrar un bots modelo de Messenger de Facebook modelado en Kendall Jenner, quien le había prometido una reunión “real” en Nueva York.

Los médicos también advierten sobre “AI Piosis” – Donde alguien pierde el contacto con la realidad después del uso intenso de chatbots.

Los expertos dicen que los halagadores y el acuerdo incorporados en modelos de idiomas grandes pueden alimentar tales delirios.

Abierto Recientemente realizó cambios Para hablar, en un intento por promover una relación más saludable entre Chatbot y sus usuarios.

Enlace de origen