Home Economía Virginia Occidental demanda a Apple por el presunto papel de iCloud en...

Virginia Occidental demanda a Apple por el presunto papel de iCloud en la distribución de pornografía infantil

10
0

El fiscal general de Virginia Occidental presentó una demanda el jueves acusando a Apple de permitir que su servicio iCloud se convirtiera en lo que las comunicaciones internas de la compañía describieron como la “plataforma más grande para distribuir pornografía infantil”.

El fiscal general JB McCuskey, republicano, acusó a Apple de priorizar la privacidad del usuario sobre la seguridad de los niños. Su oficina llamó el caso el primero de su tipo por parte de una agencia gubernamental con respecto a la distribución de material de abuso sexual infantil en la plataforma de almacenamiento de datos de Apple.

“Estas imágenes son un registro permanente del trauma de un niño, y ese niño vuelve a ser víctima cada vez que se comparte o ve el material”, dijo McCuskey en el comunicado. “Esta conducta es despreciable y la inacción de Apple es imperdonable”.

El fiscal general de Virginia Occidental presentó una demanda acusando a Apple de permitir que su servicio iCloud se convirtiera en lo que las comunicaciones internas de la compañía describieron como la “plataforma más grande para distribuir pornografía infantil”. Un cartel afuera de una Apple Store en Massachusetts, arriba. REUTERS

Apple dijo en un comunicado que ha implementado funciones que impiden que los niños descarguen o reciban imágenes de desnudos y que está “innovando todos los días para combatir las amenazas en evolución y mantener la plataforma más segura y confiable para los niños”.

“Todos nuestros controles parentales y funciones líderes en la industria, como Communications Safety, que se activa automáticamente en los dispositivos de los niños cuando se detecta desnudez en mensajes, fotos compartidas, AirDrop e incluso llamadas FaceTime en vivo, están diseñados para mantener a nuestros usuarios seguros y privados”, dijo Apple.

La compañía consideró digitalizar imágenes, pero abandonó ese enfoque debido a preocupaciones sobre la privacidad y seguridad del usuario, incluida la preocupación de que dichas imágenes pudieran ser explotadas por gobiernos que buscaban otro material para censurar o arrestar, informó Reuters.

La oficina de McCuskey citó un mensaje de texto enviado por el jefe antifraude de Apple en 2020, afirmando que, debido a las prioridades de Apple, era “la plataforma más grande para distribuir pornografía infantil”.

Su oficina presentó la denuncia en el Tribunal de Circuito del Condado de Mason. La demanda busca daños legales y punitivos y solicita que un juez obligue a Apple a implementar medidas más efectivas para detectar material abusivo e implementar diseños de productos más seguros.

Google, Microsoft y otros proveedores de plataformas de Alphabet verifican las fotos cargadas o los archivos adjuntos enviados por correo electrónico con una base de datos de identificadores de materiales conocidos de abuso sexual infantil proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados y otras cámaras de compensación.

Hasta 2022, Apple adoptó un enfoque diferente. No escaneó todos los archivos cargados en sus ofertas de almacenamiento de iCloud y los datos no estaban cifrados de extremo a extremo, lo que significa que las fuerzas del orden podían acceder a ellos con una orden judicial.

Reuters informó en 2020 que Apple estaba planeando el cifrado de extremo a extremo para iCloud, lo que habría puesto los datos en una forma inutilizable para las fuerzas del orden. Abandonó el plan después de que el FBI se quejara de que perjudicaría las investigaciones.

La demanda busca daños legales y punitivos y solicita que un juez obligue a Apple, liderada por el CEO Tim Cook, a implementar medidas más efectivas para detectar contenido abusivo e implementar diseños de productos más seguros. Lafargue Raphaël/ABACA/Shutterstock

En agosto de 2021, Apple anunció NeuralHash, diseñado para equilibrar la detección de pornografía infantil y la privacidad mediante el análisis de imágenes en los dispositivos de los usuarios antes de descargarlas.

El sistema fue criticado por investigadores de seguridad, que temían que generara informes falsos de abuso, y provocó una reacción violenta de los defensores de la privacidad que dijeron que podría ampliarse para permitir la vigilancia gubernamental.

Un mes después, Apple retrasó la introducción de NeuralHash antes de cancelarlo en diciembre de 2022, dijo el estado en su comunicado. El mismo mes, Apple lanzó una opción de cifrado de extremo a extremo para los datos de iCloud.

JB McCuskey JB McCuskey calificó el caso como el primero de su tipo por parte de una agencia gubernamental que involucra la distribución de pornografía infantil en la plataforma de almacenamiento de datos de Apple. REUTERS

El estado dijo que NeuralHash era inferior a otras herramientas y podía burlarse fácilmente. Apple almacena y sincroniza datos a través de iCloud sin detección proactiva de material abusivo, lo que permite que dichas imágenes circulen.

Aunque Apple no ha hecho el esfuerzo de escanear imágenes cargadas en iCloud, ha implementado una función llamada Seguridad de la comunicación que difumina la desnudez y otro contenido sensible enviado hacia o desde el dispositivo de un niño.

La ley federal exige que las empresas de tecnología con sede en EE. UU. denuncien material abusivo al Centro Nacional para Niños Desaparecidos y Explotados.

Hasta 2022, Apple no escaneó todos los archivos cargados en sus ofertas de almacenamiento de iCloud y los datos no estaban cifrados de extremo a extremo, lo que significa que las fuerzas del orden podían acceder a ellos con una orden judicial. REUTERS

Apple completó 267 informes en 2023, en comparación con 1,47 millones de Google y 30,6 millones de MetaPlataformas, dijo el estado.

Los reclamos del estado reflejan las acusaciones de una demanda colectiva propuesta contra Apple a fines de 2024 en un tribunal federal de California por parte de personas representadas en tales imágenes.

Apple tomó medidas para desestimar esa demanda, diciendo que la compañía estaba protegida de responsabilidad bajo la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley que brinda amplia protección a las empresas de Internet contra demandas por contenido generado por los usuarios.

Enlace de origen

Previous article“Viaje en el tiempo” y aceptación de las emociones: cinco consejos de expertos para tomar decisiones difíciles | Bueno, en realidad
Next articleWoody y Buzz luchan contra la tecnología en la secuela de Pixar
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here