Az Apple értesíti a rendőrséget, ha úgy vélik, hogy sértő képek vannak az iPhone-ján
2 perc olvas
Frissítve
Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább
A A Financial Times beszámolója hogy az Apple egy olyan rendszeren dolgozik, amely átvizsgálja az iPhone-on lévő fényképeket gyermekbántalmazás képeiért, majd felveszi a kapcsolatot a rendőrséggel, ha észlelik.
Az úgynevezett neuralMatch rendszert az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központja adatbázisán képezték ki, és a készüléken lévő és az iCloudba feltöltött fényképeket folyamatosan szkenneljük.
Ha visszaélésre utaló képet észlelünk, a képet egy emberi ellenőrökből álló csoporthoz irányítják, akik majd figyelmeztetik a rendfenntartó szerveket, ha egy képet ellenőriznek.
A rendszer kezdetben csak az Egyesült Államokra vonatkozik.
Az Apple természetesen nem tesz mást, mint a többi felhőalapú tárolási vállalat, bár az eszközön végzett vizsgálat kivételt képez.
In támogató dokumentumukat Az Apple elmagyarázza az előnyöket:
Az Apple nem tanul meg semmit azokról a képekről, amelyek nem egyeznek az ismert CSAM adatbázissal.
Az Apple nem férhet hozzá az egyező CSAM-képek metaadataihoz vagy vizuális származékaihoz mindaddig, amíg az iCloud Photos-fiókban nem lépik túl az egyezések küszöbét.
Rendkívül alacsony annak a kockázata, hogy a rendszer helytelenül jelöl meg egy fiókot. Ezenkívül az Apple manuálisan felülvizsgálja az NCMEC-nek küldött összes jelentést, hogy biztosítsa a jelentések pontosságát.
A felhasználók nem érhetik el és nem tekinthetik meg az ismert CSAM-képek adatbázisát.
A felhasználók nem tudják azonosítani, hogy a rendszer mely képeket jelölte meg CSAM-ként
A nagy gond természetesen a hamis pozitív eredmények és ezek lehetséges következményei. Míg az Apple szerint a kockázat „rendkívül alacsony”, a nagy számok törvénye miatt, ha a kockázat 1 az 1 millióhoz, az azt jelentené, hogy az Apple milliárd iPhone-felhasználói közül 1000-nek kell magyarázkodnia a rendőrségen annak ellenére, hogy nem tette meg. bármi rossz.
A másik, kevésbé közvetlen probléma, az EHA által kifejezett, az, hogy a rendszert kiszélesítheti a küldetés, vagy a totalitárius kormányok nyomása, hogy más képeket is belefoglaljanak, például terrorcselekményeket vagy másként gondolkodók által használt szimbólumokat vagy akár LMBT-képeket, amelyek kedvenc célpontjai a jobboldali kormányok növelésének Kelet-Európában. .
A funkció az iOS 15 részeként kerül bevezetésre.
keresztül Engadget