Noticias

Demandan a Apple por no implementar la detección de CSAM en iCloud

La compañía se enfrenta a una demanda por no activar su sistema anunciado para detectar material de abuso sexual infantil en iCloud, alegando que su inacción perpetúa el trauma de las víctimas.

Apple se enfrenta a una nueva demanda relacionada con su decisión de no implementar un sistema para escanear fotos almacenadas en iCloud en busca de material de abuso sexual infantil (CSAM, por sus siglas en inglés). La demanda, presentada por una mujer de 27 años bajo seudónimo, acusa a la empresa de inacción y de no tomar medidas efectivas para evitar la propagación de este material.

La denunciante afirma haber sido víctima de abuso sexual infantil por parte de un pariente cuando era un bebé, con imágenes de ese abuso compartidas en línea. Según sus declaraciones, aún recibe notificaciones casi diarias de las autoridades sobre personas acusadas de poseer dichas imágenes, lo que la obliga a revivir su trauma constantemente.

Un sistema que nunca llegó.

En 2021, Apple anunció un sistema diseñado para detectar CSAM en bibliotecas de iCloud, utilizando firmas digitales del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones. Sin embargo, después de recibir críticas de defensores de la privacidad, quienes argumentaron que el sistema podría convertirse en una puerta trasera para la vigilancia gubernamental, Apple abandonó esos planes.

La demanda, presentada por el abogado James Marsh, podría ampliarse para incluir a más de 2.680 víctimas potenciales que podrían tener derecho a compensación, según estimaciones del equipo legal.

Reacciones y declaraciones.

Un portavoz de Apple declaró al New York Times que la compañía está “innovando de manera urgente y activa para combatir estos delitos sin comprometer la seguridad y privacidad de sus usuarios”. Sin embargo, las críticas hacia Apple han sido persistentes.

En agosto, otra demanda fue presentada por una niña de 9 años y su tutor, acusando a Apple de no tomar medidas contra el abuso sexual infantil en iCloud. Ambas demandas subrayan la presión creciente sobre la compañía para equilibrar la privacidad de los usuarios con la protección de los menores.

Un dilema ético y tecnológico.

El sistema propuesto por Apple en 2021 habría utilizado tecnologías avanzadas para detectar imágenes de CSAM sin acceder directamente a las fotos de los usuarios. Sin embargo, las preocupaciones sobre cómo esta herramienta podría ser explotada por gobiernos autoritarios llevaron a su desactivación antes de su lanzamiento.

La situación plantea preguntas éticas y técnicas sobre el papel de las grandes tecnológicas en la prevención de delitos graves mientras protegen los derechos de sus usuarios. Para Apple, esta demanda podría significar una revisión completa de su enfoque en seguridad y privacidad.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario