Demandan a Apple por no implementar la detección de CSAM en iCloud
La compañía se enfrenta a una demanda por no activar su sistema anunciado para detectar material de abuso sexual infantil en iCloud, alegando que su inacción perpetúa el trauma de las víctimas.

