Google AI sætter far i efterforskning af børnemishandling på grund af nøgenbilleder af småbørns online konsultation

Ikon for læsetid 3 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

En far ved navn Mark, som tog et billede af sit barns hævede lyske for at bruge det til en online lægekonsultation, blev undersøgt efter Google markerede billederne som materiale om seksuelt misbrug af børn (CSAM). Ifølge rapporten fra The New York TimesSelvom undersøgelsen fandt, at faderens sag "ikke opfyldte elementerne i en forbrydelse, og at der ikke fandt nogen forbrydelse sted", kunne det have været værre, hvilket kunne resultere i, at han mistede sit barns forældremyndighed. Endnu mere forblev Google fast med sin beslutning om at deaktivere (og senere slette) Marks konto, selvom han appellerede til virksomheden med resultatet af politirapporten som bevis på hans uskyld.

Teknologien er fortsat mangelfuld, men dens fejl bør ikke bringe dig i en kritisk tilstand, der kan bringe dig i fare. Det er ikke tilfældet med Googles maskinlæringsklassifikatorer og hash-matching-teknologi, der skaber "et 'hash' eller et unikt digitalt fingeraftryk for et billede eller en video, så det kan sammenlignes med hashes af kendt CSAM." Ifølge Google, når teknologien og de "uddannede specialisthold" opdager CSAM, rapporterer den til National Center for Missing and Exploited Children (NCMEC), som vil indlede en undersøgelse med hjælp fra retshåndhævelse. Ikke desto mindre er teknologien ikke 100 % nøjagtig, og de fejl, den kan begå, kan betyde store konsekvenser for enhver.

I en e-mail sendt til The Verge af Google hævder virksomheden imidlertid, at dets "team af børnesikkerhedseksperter gennemgår markeret indhold for nøjagtighed og rådfører sig med børnelæger for at sikre, at vi er i stand til at identificere tilfælde, hvor brugere kan søge lægehjælp." Desværre, mens beskrivelsen passer til Marks tilfælde, markerede Google stadig faderen som en kriminel, hvilket førte til en efterforskning, og at han mistede sin Google-konto og andre vigtige cloud-filer. På en sidebemærkning forklarede en talsmand fra Google til NYT, at det kun udfører scanning, når der udføres en "bekræftende handling", såsom sikkerhedskopiering af billeder til Googles sky.

Ifølge gennemsigtighedsrapport fra Google, har den allerede rapporteret i alt 621,583 tilfælde af CSAM til NCMEC CyberTipline, hvilket resulterer i, at de retshåndhævende myndigheder er blevet advaret om 4,260 mulige problemer med CSAM (og 270,000 konti er blevet deaktiveret), inklusive Marks sag. Men efter en undersøgelse i februar 2021, der viste, at der ikke var sket nogen overtrædelser, får det os til at stille spørgsmålstegn ved Google AI's evne til at flage misbrug eller udnyttelse af børn. Og med det faktum, at det kan resultere i alvorlige konsekvenser som at miste dine cloud-data og -konto og blive efterforsket af myndigheder, er det en ren besværlighed at blive anklaget som kriminel af Googles værktøj. Værre, det kan betyde privatlivsproblemer, hvilket giver dig bekymringer om de ting, du vil gemme på din telefon eller uploade i skyen, uanset om det er af medicinske eller andre ikke-stødende årsager.