Apple está siendo demandada por su decisión de no implementar un sistema que habría escaneado fotos de iCloud en busca de material de abuso sexual infantil (CSAM).
La demanda argumenta que al no hacer más para prevenir la propagación de este material, se obliga a las víctimas a revivir su trauma. según el New York Times. La demanda describe a Apple como anunciando “un diseño mejorado ampliamente promocionado destinado a proteger a los niños” y luego no “implementó esos diseños ni tomó ninguna medida para detectar y limitar” este material.
Apple anunció por primera vez el sistema en 2021, explicando que sería utilizar firmas digitales del Centro Nacional para Niños Desaparecidos y Explotados y otros grupos para detectar contenido CSAM conocido en las bibliotecas de iCloud de los usuarios. Sin embargo, pareció abandonar esos planes después de que los defensores de la seguridad y la privacidad sugirieran que podrían crear una puerta trasera para la vigilancia gubernamental.
Según se informa, la demanda proviene de una mujer de 27 años que está demandando a Apple bajo un seudónimo. Dijo que un pariente abusó sexualmente de ella cuando era una bebé y compartió imágenes de ella en línea, y que todavía recibe avisos policiales casi todos los días sobre alguien acusado de poseer esas imágenes.
El abogado James Marsh, que participa en la demanda, dijo que hay un grupo potencial de 2.680 víctimas que podrían tener derecho a una indemnización en este caso.
TechCrunch se ha puesto en contacto con Apple para hacer comentarios. Un portavoz de la empresa dijo a The Times que la empresa está «innovando de forma urgente y activa para combatir estos delitos sin comprometer la seguridad y privacidad de todos nuestros usuarios».
En agosto, Una niña de 9 años y su tutor demandaron a Appleacusando a la empresa de no abordar CSAM en iCloud.




