Apple informerà la polizia se ritiene che tu abbia immagini offensive sul tuo iPhone

Icona del tempo di lettura 2 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

privacy dell'iphone

I Rapporti del Financial Times che Apple sta lavorando su un sistema che scansiona le foto sul tuo iPhone alla ricerca di immagini di abusi sui minori e quindi contatta la polizia se rilevata.

Il cosiddetto sistema neuralMatch è stato addestrato su un database del National Center for Missing and Exploited Children e le foto sul tuo telefono e caricate su iCloud verranno scansionate continuamente.

Se viene rilevata un'immagine che suggerisce un abuso, l'immagine verrà indirizzata a un team di revisori umani che avviserà quindi le forze dell'ordine se un'immagine viene verificata.

Il sistema sarebbe inizialmente solo per gli Stati Uniti.

Ovviamente Apple non sta facendo nulla di diverso dalle altre società di cloud storage, sebbene le scansioni sul dispositivo siano un'eccezione.

In il loro documento di supporto Apple spiega i vantaggi:

Apple non apprende nulla sulle immagini che non corrispondono al noto database CSAM.

Apple non può accedere ai metadati o ai derivati ​​visivi per le immagini CSAM corrispondenti fino a quando non viene superata una soglia di corrispondenze per un account iCloud Photos.

Il rischio che il sistema segnali erroneamente un account è estremamente basso. Inoltre, Apple esamina manualmente tutti i rapporti inviati a NCMEC per garantire l'accuratezza dei rapporti.

Gli utenti non possono accedere o visualizzare il database di immagini CSAM note.

Gli utenti non possono identificare quali immagini sono state contrassegnate come CSAM dal sistema

La grande preoccupazione ovviamente sono i falsi positivi e le potenziali conseguenze di questi. Mentre Apple afferma che il rischio è "estremamente basso", a causa della legge dei grandi numeri, se il rischio è 1 su 1 milione, significherebbe che 1000 dei miliardi di utenti iPhone di Apple potrebbero finire per doversi spiegare alla polizia nonostante non lo facciano qualcosa di sbagliato.

L'altra preoccupazione, meno immediata, espresso dal FEP, è che il sistema può essere ampliato da mission creep o da pressioni da parte dei governi totalitari per includere altre immagini, ad esempio di atti terroristici o simboli usati dai dissensi o persino immagini LGBT, obiettivi preferiti se aumentano i governi di destra nell'Europa orientale .

La funzione verrà implementata come parte di iOS 15.

via Engadget

Maggiori informazioni sugli argomenti: mela, Privacy

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *