Apple bude informovat policii, pokud se bude domnívat, že máte na svém iPhonu urážlivé obrázky

Ikona času čtení 2 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

soukromí na iphone

Projekt Informuje Financial Times že Apple pracuje na systému, který by skenoval fotografie ve vašem iPhonu, zda neobsahuje obrázky zneužívání dětí, a pokud by byl odhalen, kontaktoval policii.

Takzvaný systém neuralMatch byl natrénován na databázi Národního centra pro pohřešované a zneužívané děti a fotografie ve vašem telefonu a nahrané na iCloud budou průběžně skenovány.

Pokud je detekován obrázek naznačující zneužití, bude obrázek postoupen týmu lidských kontrolorů, ​​kteří poté upozorní orgány činné v trestním řízení, pokud bude obrázek ověřen.

Systém bude zpočátku pouze pro USA.

Apple samozřejmě nedělá nic jiného než ostatní společnosti cloudových úložišť, i když skenování na zařízení je výjimkou.

In jejich podpůrný dokument Apple vysvětluje výhody:

Apple se nedozví nic o obrázcích, které neodpovídají známé databázi CSAM.

Apple nemůže získat přístup k metadatům nebo vizuálním derivátům pro shodné obrázky CSAM, dokud není překročena prahová hodnota shody pro účet iCloud Photos.

Riziko, že systém nesprávně označí účet, je extrémně nízké. Kromě toho společnost Apple ručně kontroluje všechna hlášení odeslaná do NCMEC, aby byla zajištěna přesnost hlášení.

Uživatelé nemají přístup k databázi známých obrázků CSAM ani ji nemohou prohlížet.

Uživatelé nemohou identifikovat, které obrázky byly systémem označeny jako CSAM

Velkým problémem jsou samozřejmě falešná pozitiva a jejich potenciální důsledky. I když Apple tvrdí, že riziko je „extrémně nízké“, kvůli zákonu velkých čísel, pokud je riziko 1 ku 1 milionu, znamenalo by to, že 1000 z miliardy uživatelů iPhonů od Applu se může nakonec muset vysvětlovat policii, přestože to neudělali. něco špatně.

Další, méně bezprostřední starost, vyjádřil EFFje, že systém může být rozšířen plížením misí nebo nátlakem totalitních vlád, aby zahrnoval další snímky, například teroristické činy nebo symboly používané disenty nebo dokonce LGBT snímky, oblíbené cíle při posilování pravicových vlád ve východní Evropě. .

Tato funkce bude zavedena jako součást iOS 15.

přes Engadget

Více o tématech: jablko, Ochrana osobních údajů

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Povinné položky jsou označeny *