Home Noticias Las cuentas de adolescentes de Instagram siempre muestran contenido de suicidio, quejas...

Las cuentas de adolescentes de Instagram siempre muestran contenido de suicidio, quejas de estudio

30
0

Las herramientas de Instagram diseñadas para proteger a los adolescentes del contenido dañino no les impiden ver estaciones de suicidio y autogestión, dijo un estudio.

Los investigadores también dijeron que la plataforma de redes sociales propiedad de Meta Alentó a los niños “a publicar contenido que había recibido comentarios altamente sexualizados de adultos”.

Las pruebas, de los grupos de seguridad para niños y los investigadores cibernéticos, revelaron que 30 de las 47 herramientas de seguridad para adolescentes en Instagram eran “significativamente ineficaces o ya no existían”.

Meta desafió la investigación y los resultados, diciendo que sus protecciones han llevado a los adolescentes a ver contenido menos dañino en Instagram.

“Este informe denuncia repetidamente nuestros esfuerzos para capacitar a los padres y proteger a los adolescentes, distorsionar el funcionamiento de nuestras herramientas de seguridad y cómo millones de padres y adolescentes los usan hoy”, dijo Meta portavoz de la BBC.

“Las cuentas de los adolescentes están llevando a cabo la industria porque proporcionan protecciones automáticas de seguridad y controles simples de los padres”.

Negocio Cuentas de adolescentes introducidas en Instagram en 2024Decir que esto agregaría mejores protecciones para los jóvenes y permitiría una mayor vigilancia de los padres.

Se extendió a Facebook y Messenger en 2025.

El estudio sobre la efectividad de sus medidas de seguridad adolescentes fue realizado por la ciberseguridad del Centro de Investigación Americano para la Democracia, y los expertos, especialmente Denunciador Arturo Béjar En nombre de los grupos de seguridad para niños, incluida la Fundación Molly Rose.

Los investigadores dijeron que después de haber creado cuentas adolescentes falsas, encontraron problemas importantes con las herramientas.

Además de encontrar que 30 de las herramientas eran ineficaces o ya no existían, declararon que nueve herramientas “redujeron los daños pero venían con limitaciones”.

Los investigadores dijeron que solo ocho de las 47 herramientas de seguridad que analizaron estaban funcionando de manera efectiva, lo que significa que los adolescentes se mostró en contenido que rompió las propias reglas de Instagram sobre lo que debería mostrarse a los jóvenes.

Esto incluyó artículos que describían “actos sexuales degradantes”, así como sugerencias de seguro de automóviles para términos de investigación que promueven el suicidio, el autoscontrol o los trastornos alimentarios.

“Estas fallas indican una cultura corporativa en meta que pone el compromiso y las ganancias antes de la seguridad”, dijo Andy Burrows, Director General de la Fundación Molly Rose, quien hace campaña por leyes de seguridad en línea más fuertes en el Reino Unido.

Fue creado después de la muerte de Molly Russell, quien se suicidó a la edad de 14 años en 2017.

Durante una investigación celebrada en 2022, el forense concluyó que murió mientras sufría los “efectos negativos del contenido en línea”.

Los investigadores compartieron con las grabaciones de pantalla de noticias de la BBC de sus resultados, algunos de ellos, incluidos niños pequeños que parecían tener menos de 13 años.

En un video, una joven pide a los usuarios que evalúen su atractivo.

Los investigadores dijeron que el algoritmo de estudio de Instagram alienta a los niños menores de 13 años a tener un comportamiento sexualizado arriesgado por gustos y opiniones. “

Dijeron que “los alienta a publicar contenido que haya recibido comentarios altamente sexualizados de los adultos”.

También descubrió que los usuarios de cuentas adolescentes podían enviarse a sí mismos “mensajes ofensivos y misóginos entre sí” y se les ha sugerido que las cuentas para adultos sigan.

Burrows dijo que los resultados sugirieron que las cuentas adolescentes de Meta eran “una cascada performativa dirigida por PR en lugar de un intento claro y concertado de establecer riesgos de seguridad a largo plazo en Instagram”.

Meta es una de las muchas grandes compañías de redes sociales que han sido criticadas en línea en el enfoque de seguridad de sus hijos.

En enero de 2024, el CEO Mark Zuckerberg fue uno de los jefes tecnológicos a la parrilla en el Senado estadounidense Durante sus políticas de seguridad, y se disculpó con un grupo de padres que dijeron que sus hijos habían sido heridos por las redes sociales.

Desde entonces, Meta ha implementado una serie de medidas para tratar de aumentar la seguridad de los niños que usan sus aplicaciones.

Pero “Estas herramientas tienen un largo camino por recorrer antes de que estén en forma para fines”, dijo la Dra. Laura Edelson, co -directora de los autores de la Ciberseguridad para la Democracia.

Meta dijo a BBC que la investigación no entiende cómo funciona su configuración de contenido para los adolescentes y dijo que los distorsionó.

“La realidad es que los adolescentes que han sido colocados en estas protecciones vieron contenido menos sensible, experimentaron contactos menos no deseados y pasaron menos tiempo en Instagram por la noche”, dijo un portavoz.

Agregaron que las herramientas han dado a los padres “herramientas robustas en cuestión”.

“Continuaremos mejorando nuestras herramientas, y damos la bienvenida a los comentarios constructivos, pero este informe no es eso”, dijeron.

Indicó que la búsqueda de ciberseguridad para el Centro de Democracia indica que herramientas como “tomar un descanso” para la gestión de aplicaciones ya no están disponibles para cuentas adolescentes, cuando se han llevado a cabo en otras características o implementadas en otro lugar.

Enlace de origen