Apple kommer att informera polisen om de tror att du har kränkande bilder på din iPhone

Lästid ikon 2 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

iphones integritet

Smakämnen Financial Times rapporterar att Apple arbetar på ett system som ska skanna foton på din iPhone efter bilder på barnmisshandel och sedan kontakta polisen om det upptäcks.

Det så kallade neuralMatch-systemet har tränats på en databas från National Center for Missing and Exploited Children, och bilder på din telefon och laddade upp till iCloud kommer att skannas kontinuerligt.

Om en bild som tyder på missbruk upptäcks kommer bilden att hänvisas till ett team av mänskliga granskare som sedan larmar polisen om en bild verifieras.

Systemet skulle initialt endast vara avsett för USA.

Apple gör naturligtvis inte något annorlunda än andra molnlagringsföretag, även om skanningar på enheten är ett undantag.

In deras stöddokument Apple förklarar fördelarna:

Apple lär sig inget om bilder som inte matchar den kända CSAM-databasen.

Apple kan inte komma åt metadata eller visuella derivator för matchade CSAM-bilder förrän en tröskel för matchningar överskrids för ett iCloud Photos-konto.

Risken för att systemet felaktigt flaggar ett konto är extremt låg. Dessutom granskar Apple manuellt alla rapporter som görs till NCMEC för att säkerställa rapporteringens noggrannhet.

Användare kan inte komma åt eller se databasen med kända CSAM-bilder.

Användare kan inte identifiera vilka bilder som flaggades som CSAM av systemet

Det stora bekymret är naturligtvis falska positiva resultat och den potentiella konsekvensen av dessa. Medan Apple säger att risken är "extremt låg", på grund av lagen om stora siffror, om risken är 1 på 1 miljon, skulle det innebära att 1000 av Apples miljarder iPhone-användare kan sluta med att behöva förklara sig för polisen trots att de inte gör det. något fel.

Den andra, mindre omedelbara oro, uttryckt av EFF, är att systemet kan breddas genom mission creep, eller genom påtryckningar från totalitära regeringar att inkludera andra bilder, till exempel av terroristhandlingar eller symboler som används av oliktänkande eller till och med HBT-bilder, ett favoritmål om ökande högerregeringar i Östeuropa .

Funktionen kommer att rullas ut som en del av iOS 15.

via Engadget

Mer om ämnena: äpple, Integritetspolicy

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *