Apple informera la police si elle pense que vous avez des images abusives sur votre iPhone

Icône de temps de lecture 2 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

confidentialité de l'iphone

Les Rapports du Financial Times qu'Apple travaille sur un système qui numériserait des photos sur votre iPhone à la recherche d'images de maltraitance d'enfants, puis contacterait la police si elle était détectée.

Le soi-disant système neuralMatch a été formé sur une base de données du Centre national pour les enfants disparus et exploités, et les photos sur votre combiné et téléchargées sur iCloud seront scannées en continu.

Si une image suggérant un abus est détectée, l'image sera renvoyée à une équipe d'examinateurs humains qui alertera ensuite les forces de l'ordre si une image est vérifiée.

Le système serait initialement réservé aux États-Unis.

Apple ne fait bien sûr rien de différent des autres sociétés de stockage en nuage, bien que les analyses sur l'appareil soient une exception.

In leur document d'accompagnement Apple explique les avantages :

Apple n'apprend rien sur les images qui ne correspondent pas à la base de données CSAM connue.

Apple ne peut pas accéder aux métadonnées ou aux dérivés visuels des images CSAM correspondantes tant qu'un seuil de correspondances n'est pas dépassé pour un compte iCloud Photos.

Le risque que le système signale incorrectement un compte est extrêmement faible. En outre, Apple examine manuellement tous les rapports transmis au NCMEC pour garantir l'exactitude des rapports.

Les utilisateurs ne peuvent pas accéder ou afficher la base de données des images CSAM connues.

Les utilisateurs ne peuvent pas identifier les images qui ont été signalées comme CSAM par le système

La grande préoccupation est bien sûr les faux positifs et leurs conséquences potentielles. Alors qu'Apple affirme que le risque est "extrêmement faible", en raison de la loi des grands nombres, si le risque est de 1 sur 1 million, cela signifierait que 1000 des milliards d'utilisateurs d'iPhone d'Apple pourraient finir par devoir s'expliquer à la police sans le faire. quelque chose de mal.

L'autre préoccupation, moins immédiate, exprimée par l'EFF, est que le système peut être élargi par le fluage de la mission, ou par la pression des gouvernements totalitaires pour inclure d'autres images, par exemple des actes terroristes ou des symboles utilisés par les dissidents ou même des images LGBT, une cible favorite si de plus en plus de gouvernements de droite en Europe de l'Est .

La fonctionnalité sera déployée dans le cadre d'iOS 15.

via Engadget

En savoir plus sur les sujets : pomme, Confidentialité

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *