Apple informará a la policía si cree que tienes imágenes abusivas en tu iPhone

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

privacidad de iphone

El Informes del Financial Times que Apple está trabajando en un sistema que escanearía fotos en su iPhone en busca de imágenes de abuso infantil y luego contactaría a la policía si lo detecta.

El llamado sistema neuralMatch ha sido entrenado en una base de datos del Centro Nacional para Niños Desaparecidos y Explotados, y las fotos en su teléfono y cargadas en iCloud se escanearán continuamente.

Si se detecta una imagen que sugiere abuso, la imagen se remitirá a un equipo de revisores humanos que luego alertarán a las fuerzas del orden público si se verifica una imagen.

Inicialmente, el sistema sería solo para EE. UU.

Por supuesto, Apple no está haciendo nada diferente a otras compañías de almacenamiento en la nube, aunque los escaneos en el dispositivo son una excepción.

In su documento de apoyo Apple explica los beneficios:

Apple no aprende nada sobre las imágenes que no coinciden con la base de datos CSAM conocida.

Apple no puede acceder a los metadatos ni a los derivados visuales de las imágenes de CSAM coincidentes hasta que se supere un umbral de coincidencias para una cuenta de Fotos de iCloud.

El riesgo de que el sistema marque incorrectamente una cuenta es extremadamente bajo. Además, Apple revisa manualmente todos los informes realizados al NCMEC para garantizar la precisión de los informes.

Los usuarios no pueden acceder ni ver la base de datos de imágenes de CSAM conocidas.

Los usuarios no pueden identificar qué imágenes fueron marcadas como CSAM por el sistema

La gran preocupación, por supuesto, son los falsos positivos y las posibles consecuencias de estos. Si bien Apple dice que el riesgo es "extremadamente bajo", debido a la ley de los grandes números, si el riesgo es de 1 en 1 millón, significaría que 1000 de los mil millones de usuarios de iPhone de Apple podrían terminar teniendo que dar explicaciones a la policía a pesar de no hacerlo. nada malo.

La otra preocupación menos inmediata, expresado por la EFF, es que el sistema puede ampliarse por el avance de la misión, o por la presión de los gobiernos totalitarios para incluir otras imágenes, por ejemplo, actos terroristas o símbolos utilizados por los disidentes o incluso imágenes LGBT, un objetivo favorito si aumentan los gobiernos de derecha en Europa del Este. .

La función se implementará como parte de iOS 15.

vía Engadget

Más sobre los temas: manzana, Privacidad

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *