Apple bude informovat policii, pokud se bude domnívat, že máte na svém iPhonu urážlivé obrázky
2 min. číst
Aktualizováno dne
Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více
Projekt Informuje Financial Times že Apple pracuje na systému, který by skenoval fotografie ve vašem iPhonu, zda neobsahuje obrázky zneužívání dětí, a pokud by byl odhalen, kontaktoval policii.
Takzvaný systém neuralMatch byl natrénován na databázi Národního centra pro pohřešované a zneužívané děti a fotografie ve vašem telefonu a nahrané na iCloud budou průběžně skenovány.
Pokud je detekován obrázek naznačující zneužití, bude obrázek postoupen týmu lidských kontrolorů, kteří poté upozorní orgány činné v trestním řízení, pokud bude obrázek ověřen.
Systém bude zpočátku pouze pro USA.
Apple samozřejmě nedělá nic jiného než ostatní společnosti cloudových úložišť, i když skenování na zařízení je výjimkou.
In jejich podpůrný dokument Apple vysvětluje výhody:
Apple se nedozví nic o obrázcích, které neodpovídají známé databázi CSAM.
Apple nemůže získat přístup k metadatům nebo vizuálním derivátům pro shodné obrázky CSAM, dokud není překročena prahová hodnota shody pro účet iCloud Photos.
Riziko, že systém nesprávně označí účet, je extrémně nízké. Kromě toho společnost Apple ručně kontroluje všechna hlášení odeslaná do NCMEC, aby byla zajištěna přesnost hlášení.
Uživatelé nemají přístup k databázi známých obrázků CSAM ani ji nemohou prohlížet.
Uživatelé nemohou identifikovat, které obrázky byly systémem označeny jako CSAM
Velkým problémem jsou samozřejmě falešná pozitiva a jejich potenciální důsledky. I když Apple tvrdí, že riziko je „extrémně nízké“, kvůli zákonu velkých čísel, pokud je riziko 1 ku 1 milionu, znamenalo by to, že 1000 z miliardy uživatelů iPhonů od Applu se může nakonec muset vysvětlovat policii, přestože to neudělali. něco špatně.
Další, méně bezprostřední starost, vyjádřil EFFje, že systém může být rozšířen plížením misí nebo nátlakem totalitních vlád, aby zahrnoval další snímky, například teroristické činy nebo symboly používané disenty nebo dokonce LGBT snímky, oblíbené cíle při posilování pravicových vlád ve východní Evropě. .
Tato funkce bude zavedena jako součást iOS 15.
přes Engadget