Noticias

Apple trabaja para combatir las imágenes de abuso infantil

Photo by Pixabay on Pexels.com

Desarrollan un nuevo sistema que buscará fotos de abusos dentro de iCloud.

En una reunión informativa el jueves por la tarde, Apple confirmó los planes previamente reportados para implementar nueva tecnología dentro de iOS, macOS, watchOS e iMessage que detectarán posibles imágenes de abuso infantil, y aclaró detalles cruciales del proyecto en curso. Para los dispositivos en los EE. UU., las nuevas versiones de iOS y iPadOS que se lanzarán este otoño tienen “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM [material de abuso sexual infantil] en línea, mientras se diseñan para la privacidad del usuario”.

El proyecto también se detalla en una nueva página de “Seguridad Infantil” en el sitio web de Apple. La implementación más invasiva y potencialmente controvertida es el sistema que realiza escaneo en el dispositivo antes de que se haga una copia de seguridad de una imagen en iCloud. A partir de la descripción, el análisis no se produce hasta que se realiza una copia de seguridad de un archivo en iCloud, y Apple solo recibe datos sobre una coincidencia si los vales criptográficos (cargados a iCloud junto con la imagen) de una cuenta en particular cumplen con un umbral de coincidencia de CSAM conocido.

Durante años, Apple ha utilizado sistemas hash para buscar imágenes de abuso infantil enviadas por correo electrónico, en línea con sistemas similares en Gmail y otros proveedores de correo electrónico en la nube. El programa anunciado hoy aplicará los mismos escaneos a las imágenes de usuario almacenadas en Fotos de iCloud, incluso si las imágenes nunca se envían a otro usuario o se comparten de otra manera.

En un PDF proporcionado junto con el informe, Apple justificó sus movimientos para el escaneo de imágenes describiendo varias restricciones que se incluyen para proteger la privacidad:

Apple no aprende nada sobre imágenes que no coincidan con el conocido CSAM base de datos. Apple no puede acceder a metadatos o derivados visuales para imágenes CSAM coincidentes hasta que un se supera el umbral de coincidencias para una cuenta de Fotos de iCloud. El riesgo de que el sistema marque incorrectamente una cuenta es extremadamente bajo. Además, Apple revisa manualmente todos los informes realizados a NCMEC para garantizar la exactitud de los informes. Los usuarios no pueden acceder o ver la base de datos de imágenes CSAM conocidas. Los usuarios no pueden identificar qué imágenes fueron marcadas como CSAM por el sistema

Los nuevos detalles se basan en las preocupaciones filtradas a principios de esta semana, pero también agregan una serie de salvaguardias que deben protegerse contra los riesgos de privacidad de dicho sistema. En particular, el sistema de umbral garantiza que los errores solitarios no generen alertas, lo que permite a Apple apuntar a una tasa de error de una falsa alerta por billón de usuarios al año. El sistema de hash también se limita al material marcado por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), y a imágenes subidas a Fotos de iCloud. Una vez que se genera una alerta, Apple y NCMEC la revisan antes de alertar a las fuerzas del orden, proporcionando una salvaguardia adicional contra el sistema que se utiliza para detectar contenido que no es CSAM.

Apple encargó evaluaciones técnicas del sistema a tres criptógrafos independientes (PDF 1, 2 y 3), que lo encontraron matemáticamente robusto. “En mi opinión, este sistema probablemente aumentará significativamente la probabilidad de que se encuentren personas que poseen o trafican con tales imágenes (usuarios dañinos); esto debería ayudar a proteger a los niños”, dijo el profesor David Forsyth, presidente de informática de la Universidad de Illinois, en una de las evaluaciones. “La precisión del sistema de coincidencia, combinada con el umbral, hace que sea muy poco probable que se revelen imágenes que no se conocen imágenes CSAM”.

Sin embargo, Apple dijo que era probable que se agregaran otros grupos de seguridad infantil como fuentes de hash a medida que el programa se expanda, y la compañía no se comprometió a hacer pública la lista de socios en el futuro. Es probable que eso aumente las ansiedades sobre cómo el sistema podría ser explotado por el gobierno chino, que durante mucho tiempo ha buscado un mayor acceso a los datos de los usuarios de iPhone dentro del país.

Créditos: Apple

Junto a las nuevas medidas de Fotos de iCloud, Apple agregó dos sistemas adicionales para proteger a los propietarios de iPhone jóvenes en riesgo de abuso infantil. La aplicación Messages ya realizó un escaneo en el dispositivo de archivos adjuntos de imágenes para las cuentas de los niños para detectar contenido que es potencialmente sexualmente explícito. Una vez detectado, el contenido se desdibuja y aparece una advertencia. Una nueva configuración que los padres pueden habilitar en sus cuentas de iCloud familiares desencadenará un mensaje que le dirá al niño que si ven (entran) o envían (saliente) la imagen detectada, sus padres recibirán un mensaje al respecto.

Apple también está actualizando cómo Siri y la aplicación Search responden a las consultas sobre imágenes de abuso infantil. Bajo el nuevo sistema, las aplicaciones “explicarán a los usuarios que el interés en este tema es dañino y problemático, y proporcionarán recursos de los socios para obtener ayuda con este problema”.

Fuente: The Verge

1 reply »

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s