Home Noticias Reino Unido busca frenar las imágenes de abuso sexual infantil con pruebas...

Reino Unido busca frenar las imágenes de abuso sexual infantil con pruebas más estrictas

3
0

Liv Mc MahonPeriodista de tecnología

Getty Images Un hombre sentado frente a una computadora en la oscuridad, su silueta iluminada por la luz de la pantalla.Imágenes falsas

El gobierno del Reino Unido permitirá que las empresas de tecnología y las organizaciones benéficas de protección infantil prueben de forma proactiva herramientas de inteligencia artificial (IA) para garantizar que no puedan crear imágenes de abuso sexual infantil.

Una enmienda al proyecto de ley contra el crimen y la policía anunciada el miércoles permitiría a los “probadores autorizados” evaluar la capacidad de los modelos para generar material ilegal de abuso sexual infantil (CSAM) antes de su publicación.

La secretaria de Tecnología, Liz Kendall, dijo que las medidas “garantizarían que los sistemas de inteligencia artificial puedan ser seguros en su origen”, aunque algunos activistas dicen que es necesario hacer más.

Esto se produce cuando la Internet Watch Foundation (IWF) dijo que el número de informes CSAM relacionados con la IA se había duplicado en el último año.

La organización benéfica, una de las pocas en el mundo autorizadas a buscar activamente pornografía infantil en línea, dijo que eliminó 426 elementos de material reportados entre enero y octubre de 2025.

Esto representa un aumento de los 199 registrados durante el mismo período en 2024, según el comunicado de prensa.

Su director ejecutivo, Kerry Smith, acogió con satisfacción las propuestas del gobierno y dijo que se basarían en sus esfuerzos de larga data para abordar el CSAM en línea.

“Las herramientas de inteligencia artificial han hecho posible que los sobrevivientes sean revictimizados con solo unos pocos clics, brindando a los delincuentes la capacidad de crear cantidades potencialmente ilimitadas de material sofisticado y fotorrealista sobre abuso sexual infantil”, dijo.

“El anuncio de hoy podría ser un paso fundamental para garantizar la seguridad de los productos de IA antes de su lanzamiento”.

Rani Govender, directora de políticas para la seguridad infantil en línea de la organización benéfica infantil NSPCC, acogió con satisfacción las medidas para alentar a las empresas a tener más responsabilidad y control sobre sus modelos y la seguridad de los niños.

“Pero marcar una diferencia real para los niños no puede ser opcional”, afirmó.

“El gobierno debe garantizar que los desarrolladores de IA tengan la obligación de utilizar esta disposición para que la protección contra el abuso sexual infantil sea una parte esencial del diseño del producto”.

“Garantizar la seguridad de los niños”

El gobierno dijo que los cambios propuestos a la ley también permitirían a los desarrolladores de IA y a las organizaciones benéficas garantizar que los modelos de IA tengan salvaguardias adecuadas contra la pornografía extrema y las imágenes íntimas no consensuadas.

Los expertos y organizaciones en seguridad infantil han advertido con frecuencia que las herramientas de inteligencia artificial desarrolladas, en parte, a partir de enormes volúmenes de contenido en línea muy variado, se están utilizando para crear imágenes muy realistas del abuso de niños o adultos sin su consentimiento.

Algunos, incluyendo la IWF y la organización benéfica de seguridad infantil Thorn, dijeron que las medidas corren el riesgo de socavar los esfuerzos para controlar dicho material al dificultar la identificación de si dicho contenido es real o generado por IA.

Los investigadores han sugerido que existe una demanda creciente de estas imágenes en línea, especialmente en la web oscuray que algunos son creado por niños.

A principios de este año, el Ministerio del Interior dijo que el Reino Unido sería el primer país del mundo en prohibir la posesión, creación o distribución de herramientas de inteligencia artificial diseñadas para crear material de abuso sexual infantil (CSAM), con una pena de hasta cinco años de prisión.

Kendall dijo el miércoles que “al dar a las organizaciones confiables el poder de revisar sus modelos de IA, estamos garantizando que la seguridad infantil esté integrada en los sistemas de IA, no se agregue como una ocurrencia tardía”.

“No permitiremos que los avances tecnológicos superen nuestra capacidad de mantener seguros a los niños”, afirmó.

El ministro de Salvaguardia, Jess Phillips, dijo que las medidas también “significarían que las herramientas legítimas de inteligencia artificial no podrían manipularse para crear material vil y que más niños estarían protegidos de los depredadores”.

Un banner promocional verde con cuadrados y rectángulos negros que forman píxeles y viene desde la derecha. El texto dice:

Enlace de origen

Previous articleOhio State, Indiana y Texas A&M siguen en lo más alto del ranking CFP
Next articleMuere Cleto Escobedo III, líder de banda y viejo amigo de Jimmy Kimmel
Carmen Ruiz
Carmen Ruiz es periodista de noticias con 7 años de experiencia cubriendo actualidad local, nacional e internacional. Graduada en Periodismo por la Universidad de Granada, Carmen ha trabajado en medios digitales y televisivos, especializándose en reportajes de sucesos, política y sociedad. Carmen se destaca por su compromiso con la veracidad, la claridad y la imparcialidad en la información. Su objetivo es ofrecer a los lectores noticias confiables y bien documentadas, explicando los acontecimientos de manera comprensible y contextualizada. Además, colabora en podcasts y programas informativos, aportando análisis y comentarios basados en hechos. Teléfono: +34 682 345 378 Correo: carmenruiz@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here