Apple bude informovať políciu, ak sa bude domnievať, že máte na svojom iPhone urážlivé obrázky

Ikona času čítania 2 min. čítať


Čítačky pomáhajú podporovať MSpoweruser. Ak nakupujete prostredníctvom našich odkazov, môžeme získať províziu. Ikona popisu

Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac

súkromie na iphone

Informuje Financial Times že spoločnosť Apple pracuje na systéme, ktorý by skenoval fotografie vo vašom iPhone, či neobsahoval obrázky zneužívania detí, a v prípade odhalenia by kontaktoval políciu.

Takzvaný systém neuralMatch bol natrénovaný na databáze z Národného centra pre nezvestné a zneužívané deti a fotografie vo vašom telefóne a nahrávané do iCloud budú neustále skenované.

Ak sa zistí obrázok naznačujúci zneužitie, obrázok sa postúpi tímu kontrolórov, ktorí v prípade overenia obrázka upozornia orgány činné v trestnom konaní.

Systém bude spočiatku len pre USA.

Apple samozrejme nerobí nič iné ako ostatné spoločnosti cloudových úložísk, hoci skenovanie na zariadení je výnimkou.

In ich podporný dokument Apple vysvetľuje výhody:

Apple sa nedozvie nič o obrázkoch, ktoré sa nezhodujú so známou databázou CSAM.

Apple nemôže získať prístup k metadátam alebo vizuálnym derivátom pre zhodné obrázky CSAM, kým sa neprekročí prah zhody pre účet iCloud Photos.

Riziko, že systém nesprávne označí účet, je extrémne nízke. Okrem toho spoločnosť Apple manuálne kontroluje všetky hlásenia odoslané do NCMEC, aby zabezpečila presnosť hlásení.

Používatelia nemajú prístup ani si nemôžu prezerať databázu známych obrázkov zobrazujúcich sexuálne zneužívanie detí.

Používatelia nedokážu identifikovať, ktoré obrázky boli systémom označené ako CSAM

Veľkou obavou sú samozrejme falošné pozitíva a ich potenciálne dôsledky. Aj keď Apple tvrdí, že riziko je „extrémne nízke“, v dôsledku zákona o veľkých číslach, ak je riziko 1 ku 1 miliónu, znamenalo by to, že 1000 XNUMX z miliardy používateľov iPhonov od Apple by sa možno nakoniec muselo vysvetľovať polícii, aj keď to neurobili. niečo zlé.

Druhá, menej bezprostredná obava, vyjadrené EFRHje, že systém môže byť rozšírený plížením misií alebo nátlakom totalitných vlád, aby zahŕňal ďalšie snímky, napríklad teroristické činy alebo symboly používané disentmi alebo dokonca LGBT snímky, obľúbené ciele pri posilňovaní pravicových vlád vo východnej Európe. .

Táto funkcia bude spustená ako súčasť iOS 15.

via Engadget

Viac o témach: jablko, súkromia

Nechaj odpoveď

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *