El fiscal general de Virginia Occidental presentó una demanda el jueves acusando a Apple de permitir que su servicio iCloud se convirtiera en lo que las comunicaciones internas de la compañía describieron como la “plataforma más grande para distribuir pornografía infantil”.
El fiscal general JB McCuskey, republicano, acusó a Apple de priorizar la privacidad del usuario sobre la seguridad de los niños. Su oficina llamó el caso el primero de su tipo por parte de una agencia gubernamental con respecto a la distribución de material de abuso sexual infantil en la plataforma de almacenamiento de datos de Apple.
“Estas imágenes son un registro permanente del trauma de un niño, y ese niño vuelve a ser víctima cada vez que se comparte o ve el material”, dijo McCuskey en el comunicado. “Esta conducta es despreciable y la inacción de Apple es imperdonable”.
Apple dijo en un comunicado que ha implementado funciones que impiden que los niños descarguen o reciban imágenes de desnudos y que está “innovando todos los días para combatir las amenazas en evolución y mantener la plataforma más segura y confiable para los niños”.
“Todos nuestros controles parentales y funciones líderes en la industria, como Communications Safety, que se activa automáticamente en los dispositivos de los niños cuando se detecta desnudez en mensajes, fotos compartidas, AirDrop e incluso llamadas FaceTime en vivo, están diseñados para mantener a nuestros usuarios seguros y privados”, dijo Apple.
La compañía consideró digitalizar imágenes, pero abandonó ese enfoque debido a preocupaciones sobre la privacidad y seguridad del usuario, incluida la preocupación de que dichas imágenes pudieran ser explotadas por gobiernos que buscaban otro material para censurar o arrestar, informó Reuters.
La oficina de McCuskey citó un mensaje de texto enviado por el jefe antifraude de Apple en 2020, afirmando que, debido a las prioridades de Apple, era “la plataforma más grande para distribuir pornografía infantil”.
Su oficina presentó la denuncia en el Tribunal de Circuito del Condado de Mason. La demanda busca daños legales y punitivos y solicita que un juez obligue a Apple a implementar medidas más efectivas para detectar material abusivo e implementar diseños de productos más seguros.
Google, Microsoft y otros proveedores de plataformas de Alphabet verifican las fotos cargadas o los archivos adjuntos enviados por correo electrónico con una base de datos de identificadores de materiales conocidos de abuso sexual infantil proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados y otras cámaras de compensación.
Hasta 2022, Apple adoptó un enfoque diferente. No escaneó todos los archivos cargados en sus ofertas de almacenamiento de iCloud y los datos no estaban cifrados de extremo a extremo, lo que significa que las fuerzas del orden podían acceder a ellos con una orden judicial.
Reuters informó en 2020 que Apple estaba planeando el cifrado de extremo a extremo para iCloud, lo que habría puesto los datos en una forma inutilizable para las fuerzas del orden. Abandonó el plan después de que el FBI se quejara de que perjudicaría las investigaciones.
En agosto de 2021, Apple anunció NeuralHash, diseñado para equilibrar la detección de pornografía infantil y la privacidad mediante el análisis de imágenes en los dispositivos de los usuarios antes de descargarlas.
El sistema fue criticado por investigadores de seguridad, que temían que generara informes falsos de abuso, y provocó una reacción violenta de los defensores de la privacidad que dijeron que podría ampliarse para permitir la vigilancia gubernamental.
Un mes después, Apple retrasó la introducción de NeuralHash antes de cancelarlo en diciembre de 2022, dijo el estado en su comunicado. El mismo mes, Apple lanzó una opción de cifrado de extremo a extremo para los datos de iCloud.
El estado dijo que NeuralHash era inferior a otras herramientas y podía burlarse fácilmente. Apple almacena y sincroniza datos a través de iCloud sin detección proactiva de material abusivo, lo que permite que dichas imágenes circulen.
Aunque Apple no ha hecho el esfuerzo de escanear imágenes cargadas en iCloud, ha implementado una función llamada Seguridad de la comunicación que difumina la desnudez y otro contenido sensible enviado hacia o desde el dispositivo de un niño.
La ley federal exige que las empresas de tecnología con sede en EE. UU. denuncien material abusivo al Centro Nacional para Niños Desaparecidos y Explotados.
Apple completó 267 informes en 2023, en comparación con 1,47 millones de Google y 30,6 millones de MetaPlataformas, dijo el estado.
Los reclamos del estado reflejan las acusaciones de una demanda colectiva propuesta contra Apple a fines de 2024 en un tribunal federal de California por parte de personas representadas en tales imágenes.
Apple tomó medidas para desestimar esa demanda, diciendo que la compañía estaba protegida de responsabilidad bajo la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley que brinda amplia protección a las empresas de Internet contra demandas por contenido generado por los usuarios.



