Umělá inteligence Google staví otce do vyšetřování zneužívání dětí kvůli nahým fotkám batolecí online konzultace

Ikona času čtení 3 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

Otec jménem Mark, který vyfotografoval otékající třísla svého dítěte, aby je použil pro online lékařskou konzultaci, byl vyšetřován poté, Google označila obrázky jako materiál pro sexuální zneužívání dětí (CSAM). Podle zprávy z The New York Timesi když vyšetřování zjistilo, že případ otce „nesplňuje znaky trestného činu a že k žádnému trestnému činu nedošlo“, mohlo to být horší, což by mohlo vést ke ztrátě péče o dítě. Ještě více, Google zůstal pevný ve svém rozhodnutí deaktivovat (a později smazat) Markův účet, i když se na společnost odvolal s výsledkem policejní zprávy jako důkaz své neviny.

Technologie zůstává chybná, ale její chyby by vás neměly dostat do kritického stavu, který by vás mohl vystavit nebezpečí. To není případ klasifikátorů strojového učení Google a technologie porovnávání hashů, které vytvářejí „hash“ neboli jedinečný digitální otisk pro obrázek nebo video, takže je lze porovnat s hodnotami hash známého sexuálního zneužívání dětí. Podle společnosti Google, jakmile technika a „vycvičené týmy specialistů“ detekují CSAM, podá zprávu Národnímu centru pro pohřešované a zneužívané děti (NCMEC), které zahájí vyšetřování s pomocí orgánů činných v trestním řízení. Technologie však není 100% přesná a chyby, které by mohla udělat, by mohly mít pro kohokoli velké následky.

V e-mailu zaslaném na adresu Verge od Googlu, společnost však tvrdí, že její „tým odborníků na bezpečnost dětí kontroluje nahlášený obsah z hlediska přesnosti a konzultuje s pediatry, abychom zajistili, že jsme schopni identifikovat případy, kdy uživatelé mohou vyhledat lékařskou pomoc.“ Bohužel, zatímco popis odpovídá Markovu případu, Google stále označil otce za zločince, což vedlo k vyšetřování a ztrátě účtu Google a dalších důležitých cloudových souborů. Na okraj, mluvčí společnosti Google vysvětlil NYT, že skenování provádí pouze tehdy, když je provedena „potvrzující akce“, jako je zálohování fotografií do cloudu Google.

Podle zpráva o transparentnosti společnosti GoogleSpolečnost NCMEC CyberTipline již oznámila celkem 621,583 4,260 případů CSAM, což vedlo k tomu, že orgány činné v trestním řízení byly upozorněny na 270,000 2021 možných problémů s CSAM (a XNUMX XNUMX účtů bylo deaktivováno), včetně Markova případu. Po vyšetřování v únoru XNUMX, které prokázalo, že nedošlo k žádnému porušení, nás to však nutí pochybovat AI Googleschopnost označovat zneužívání nebo vykořisťování dětí. A vzhledem k tomu, že by to mohlo vést k vážným následkům, jako je ztráta vašich cloudových dat a účtu a vyšetřování úřady, je obvinění nástrojem Google jako zločince čirá nepříjemnost. Horší je, že to může znamenat problémy s ochranou osobních údajů, které vás znepokojují věcmi, které chcete uložit do telefonu nebo nahrát do cloudu, bez ohledu na to, zda jde o zdravotní nebo jiné neurážlivé důvody.