Apple zal de politie informeren als ze denken dat je beledigende afbeeldingen op je iPhone hebt

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

iphone-privacy

De Financial Times rapporteert dat Apple werkt aan een systeem dat foto's op je iPhone scant op afbeeldingen van kindermishandeling en vervolgens contact opneemt met de politie als het wordt gedetecteerd.

Het zogenaamde neuralMatch-systeem is getraind op een database van het National Center for Missing and Exploited Children, en foto's op uw handset en geüpload naar iCloud worden continu gescand.

Als een afbeelding wordt gedetecteerd die op misbruik wijst, wordt de afbeelding doorverwezen naar een team van menselijke beoordelaars die de wetshandhaving zullen waarschuwen als een afbeelding is geverifieerd.

Het systeem zou in eerste instantie alleen voor de VS zijn.

Apple doet natuurlijk niets anders dan andere cloudopslagbedrijven, hoewel scans op het apparaat een uitzondering vormen.

In hun ondersteuningsdocument Apple legt de voordelen uit:

Apple leert niets over afbeeldingen die niet overeenkomen met de bekende CSAM-database.

Apple heeft geen toegang tot metadata of visuele afgeleiden voor overeenkomende CSAM-afbeeldingen totdat een drempel voor overeenkomsten is overschreden voor een iCloud-foto's-account.

Het risico dat het systeem een ​​account ten onrechte markeert, is extreem laag. Bovendien beoordeelt Apple handmatig alle rapporten die aan NCMEC zijn gedaan om de nauwkeurigheid van de rapportage te garanderen.

Gebruikers kunnen de database met bekende CSAM-afbeeldingen niet openen of bekijken.

Gebruikers kunnen niet identificeren welke afbeeldingen door het systeem zijn gemarkeerd als CSAM

De grote zorg zijn natuurlijk valse positieven en de mogelijke gevolgen hiervan. Hoewel Apple zegt dat het risico "extreem laag" is, als gevolg van de wet van de grote getallen, zou het, als het risico 1 op 1 miljoen is, betekenen dat 1000 van Apple's miljard iPhone-gebruikers zich uiteindelijk bij de politie moeten verantwoorden, ondanks dat ze niets doen. is er iets mis.

De andere, minder directe zorg, uitgedrukt door de EFF, is dat het systeem kan worden uitgebreid door mission creep, of door druk van totalitaire regeringen om andere beelden op te nemen, bijvoorbeeld van terroristische daden of symbolen die worden gebruikt door afwijkende meningen of zelfs LGBT-beelden, een favoriet doelwit bij toenemende rechtse regeringen in Oost-Europa .

De functie wordt uitgerold als onderdeel van iOS 15.

via Engadget

Meer over de onderwerpen: appel, Privacy

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *