Google AI setter far i etterforskning av overgrep mot barn på grunn av nakenbilder av småbarn på nett

Ikon for lesetid 3 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

En far ved navn Mark, som tok et bilde av barnets hevende lyske for å bruke det til en medisinsk konsultasjon på nett, ble undersøkt etter Google flagget bildene som materiale om seksuelle overgrep mot barn (CSAM). I følge rapporten fra The New York Times, selv om etterforskningen fant at farens sak "ikke oppfylte elementene i en forbrytelse og at ingen forbrytelse skjedde," kunne det ha vært verre, noe som kunne resultere i at han mistet barnets varetekt. Enda mer, Google holdt seg fast med sin beslutning om å deaktivere (og senere slette) Marks konto, selv om han anket til selskapet med resultatet av politirapporten som bevis på hans uskyld.

Teknologien er fortsatt mangelfull, men dens feil bør ikke sette deg i en kritisk tilstand som kan sette deg i fare. Det er ikke tilfellet med Googles maskinlæringsklassifiserere og hash-matching-teknologi som skaper "en 'hash', eller unikt digitalt fingeravtrykk, for et bilde eller en video, slik at det kan sammenlignes med hashes av kjente CSAM." I følge Google, når teknologien og de "trente spesialistteamene" oppdager CSAM, rapporterer den til National Center for Missing and Exploited Children (NCMEC), som vil sette i gang en etterforskning ved hjelp av rettshåndhevelse. Ikke desto mindre er ikke teknologien 100 % nøyaktig, og feilene den kan gjøre kan bety store konsekvenser for hvem som helst.

I en e-post sendt til Randen av Google hevder selskapet imidlertid at deres "team av barnesikkerhetseksperter vurderer flagget innhold for nøyaktighet og rådfører seg med barneleger for å sikre at vi er i stand til å identifisere tilfeller der brukere kan søke medisinsk råd." Dessverre, mens beskrivelsen passer til Marks tilfelle, flagget Google fortsatt faren som en kriminell, noe som førte til en etterforskning og at han mistet Google-kontoen sin og andre viktige skyfiler. På en sidenotat forklarte en talsperson fra Google til NYT at den bare utfører skanning når en "bekreftende handling" utføres, for eksempel sikkerhetskopiering av bilder til Googles sky.

Ifølge åpenhetsrapport fra Google, har den allerede rapportert totalt 621,583 4,260 tilfeller av CSAM til NCMEC CyberTipline, noe som resulterte i at politimyndighetene ble varslet om 270,000 2021 mulige problemer med CSAM (og XNUMX XNUMX kontoer er deaktivert), inkludert Marks sak. Etter en etterforskning i februar XNUMX som viste at det ikke ble gjort noen brudd, får det oss imidlertid til å stille spørsmål Google AIsin evne til å flagge barnemishandling eller utnyttelse. Og med det faktum at det kan føre til alvorlige konsekvenser som å miste skydataene og kontoen din og bli etterforsket av myndighetene, er det en ren ulempe å bli anklaget som kriminell av Googles verktøy. Verre, det kan bety personvernproblemer, noe som gir deg bekymringer om tingene du vil lagre på telefonen eller laste opp i skyen, uavhengig av om det er av medisinske eller andre ikke-støtende årsaker.