Az Apple értesíti a rendőrséget, ha úgy vélik, hogy sértő képek vannak az iPhone-ján

Olvasási idő ikonra 2 perc olvas


Az olvasók segítenek az MSpoweruser támogatásában. Kaphatunk jutalékot, ha a linkjeinken keresztül vásárol. Eszköztipp ikon

Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább

iphone adatvédelem

A A Financial Times beszámolója hogy az Apple egy olyan rendszeren dolgozik, amely átvizsgálja az iPhone-on lévő fényképeket gyermekbántalmazás képeiért, majd felveszi a kapcsolatot a rendőrséggel, ha észlelik.

Az úgynevezett neuralMatch rendszert az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központja adatbázisán képezték ki, és a készüléken lévő és az iCloudba feltöltött fényképeket folyamatosan szkenneljük.

Ha visszaélésre utaló képet észlelünk, a képet egy emberi ellenőrökből álló csoporthoz irányítják, akik majd figyelmeztetik a rendfenntartó szerveket, ha egy képet ellenőriznek.

A rendszer kezdetben csak az Egyesült Államokra vonatkozik.

Az Apple természetesen nem tesz mást, mint a többi felhőalapú tárolási vállalat, bár az eszközön végzett vizsgálat kivételt képez.

In támogató dokumentumukat Az Apple elmagyarázza az előnyöket:

Az Apple nem tanul meg semmit azokról a képekről, amelyek nem egyeznek az ismert CSAM adatbázissal.

Az Apple nem férhet hozzá az egyező CSAM-képek metaadataihoz vagy vizuális származékaihoz mindaddig, amíg az iCloud Photos-fiókban nem lépik túl az egyezések küszöbét.

Rendkívül alacsony annak a kockázata, hogy a rendszer helytelenül jelöl meg egy fiókot. Ezenkívül az Apple manuálisan felülvizsgálja az NCMEC-nek küldött összes jelentést, hogy biztosítsa a jelentések pontosságát.

A felhasználók nem érhetik el és nem tekinthetik meg az ismert CSAM-képek adatbázisát.

A felhasználók nem tudják azonosítani, hogy a rendszer mely képeket jelölte meg CSAM-ként

A nagy gond természetesen a hamis pozitív eredmények és ezek lehetséges következményei. Míg az Apple szerint a kockázat „rendkívül alacsony”, a nagy számok törvénye miatt, ha a kockázat 1 az 1 millióhoz, az azt jelentené, hogy az Apple milliárd iPhone-felhasználói közül 1000-nek kell magyarázkodnia a rendőrségen annak ellenére, hogy nem tette meg. bármi rossz.

A másik, kevésbé közvetlen probléma, az EHA által kifejezett, az, hogy a rendszert kiszélesítheti a küldetés, vagy a totalitárius kormányok nyomása, hogy más képeket is belefoglaljanak, például terrorcselekményeket vagy másként gondolkodók által használt szimbólumokat vagy akár LMBT-képeket, amelyek kedvenc célpontjai a jobboldali kormányok növelésének Kelet-Európában. .

A funkció az iOS 15 részeként kerül bevezetésre.

keresztül Engadget

Bővebben a témákról: alma, Adatvédelem

Hagy egy Válaszol

E-mail címed nem kerül nyilvánosságra. Kötelező kitölteni *