Apple vil informere politiet hvis de mener at du har støtende bilder på iPhone

Ikon for lesetid 2 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

iphone personvern

De Financial Times rapporterer at Apple jobber med et system som vil skanne bilder på iPhone for bilder av barnemishandling og deretter kontakte politiet hvis det oppdages.

Det såkalte neuralMatch-systemet har blitt trent på en database fra National Center for Missing and Exploited Children, og bilder på håndsettet ditt og lastet opp til iCloud vil bli skannet fortløpende.

Hvis det oppdages et bilde som tyder på misbruk, vil bildet bli henvist til et team av menneskelige anmeldere som deretter vil varsle politi hvis et bilde er bekreftet.

Systemet ville i utgangspunktet kun være USA.

Apple gjør selvfølgelig ikke noe annerledes enn andre skylagringsselskaper, selv om skanning på enheten er et unntak.

In deres støttedokument Apple forklarer fordelene:

Apple lærer ikke noe om bilder som ikke samsvarer med den kjente CSAM-databasen.

Apple har ikke tilgang til metadata eller visuelle derivater for samsvarende CSAM-bilder før en terskel for samsvar er overskredet for en iCloud Photos-konto.

Risikoen for at systemet feil flagger en konto er ekstremt lav. I tillegg gjennomgår Apple manuelt alle rapporter til NCMEC for å sikre rapporteringsnøyaktighet.

Brukere kan ikke få tilgang til eller se databasen med kjente CSAM-bilder.

Brukere kan ikke identifisere hvilke bilder som ble flagget som CSAM av systemet

Den store bekymringen er selvfølgelig falske positiver og den potensielle konsekvensen av disse. Mens Apple sier at risikoen er "ekstremt lav", på grunn av loven om store tall, hvis risikoen er 1 av 1 million, vil det bety at 1000 av Apples milliarder iPhone-brukere kan ende opp med å måtte forklare seg for politiet til tross for at de ikke gjør det. noe galt.

Den andre, mindre umiddelbare bekymringen, uttrykt av EFF, er at systemet kan utvides ved misjonskrypning, eller ved press fra totalitære regjeringer til å inkludere andre bilder, for eksempel av terrorhandlinger eller symboler brukt av meningsmotstandere eller til og med LHBT-bilder, et favorittmål for økende høyreorienterte regjeringer i Øst-Europa .

Funksjonen vil bli rullet ut som en del av iOS 15.

av Engadget

Mer om temaene: eple, Privatliv

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *