Apple va informa poliția dacă consideră că aveți imagini abuzive pe iPhone

Pictograma timp de citire 2 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Află mai multe

confidențialitate iPhone

Rapoartele Financial Times că Apple lucrează la un sistem care ar scana fotografiile de pe iPhone-ul tău pentru imagini de abuz asupra copiilor și apoi ar contacta poliția dacă este detectat.

Așa-numitul sistem neuralMatch a fost antrenat pe o bază de date de la Centrul Național pentru Copii Dispăruți și Exploați, iar fotografiile de pe telefonul dvs. și încărcate pe iCloud vor fi scanate continuu.

Dacă este detectată o imagine care sugerează un abuz, imaginea va fi trimisă unei echipe de evaluatori umani, care va alerta apoi forțele de ordine dacă o imagine este verificată.

Sistemul ar fi inițial doar pentru SUA.

Desigur, Apple nu face nimic diferit de alte companii de stocare în cloud, deși scanările pe dispozitiv sunt o excepție.

In documentul lor de sprijin Apple explică beneficiile:

Apple nu învață nimic despre imaginile care nu se potrivesc cu baza de date CSAM cunoscută.

Apple nu poate accesa metadatele sau derivatele vizuale pentru imaginile CSAM potrivite până când nu se depășește un prag de potriviri pentru un cont iCloud Photos.

Riscul ca sistemul să semnaleze incorect un cont este extrem de scăzut. În plus, Apple examinează manual toate rapoartele făcute către NCMEC pentru a asigura acuratețea raportării.

Utilizatorii nu pot accesa sau vizualiza baza de date de imagini CSAM cunoscute.

Utilizatorii nu pot identifica ce imagini au fost semnalate ca CSAM de către sistem

Marea îngrijorare este, desigur, falsele pozitive și potențiala consecință a acestora. În timp ce Apple spune că riscul este „extrem de scăzut”, din cauza legii numerelor mari, dacă riscul este de 1 la 1 milion, ar însemna că 1000 din miliardele de utilizatori de iPhone de la Apple ar putea ajunge să fie nevoiți să se explice poliției, deși nu fac. ceva greșit.

Cealaltă îngrijorare, mai puțin imediată, exprimate de FEP, este că sistemul poate fi lărgit de misiuni sau de presiunea guvernelor totalitare pentru a include alte imagini, de exemplu, acte teroriste sau simboluri folosite de disidente sau chiar imagini LGBT, ținte preferate în creșterea guvernelor de dreapta în Europa de Est. .

Funcția va fi lansată ca parte a iOS 15.

de Engadget

Mai multe despre subiecte: măr, Privacy

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *