Google AI laittaa isän lasten hyväksikäyttötutkimukseen taaperon verkkokonsultaatioiden alastonkuvien takia

Lukuajan kuvake 3 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Isä nimeltä Mark, joka otti kuvan lapsensa turvotusta nivusista käyttääkseen sitä online-lääkärikonsultaatioon, joutui tutkimaan sen jälkeen, kun Google merkitsi kuvat lasten seksuaalista hyväksikäyttöä koskevaksi materiaaliksi (CSAM). Raportin mukaan New York Times, vaikka tutkimuksessa havaittiin, että isän tapaus "ei vastannut rikoksen tunnusmerkkejä ja ettei rikosta tapahtunut", se olisi voinut olla pahempi, mikä olisi voinut johtaa siihen, että hän menettäisi lapsensa huoltajuuden. Vielä enemmän, Google pysyi lujana päätöksessään poistaa käytöstä (ja myöhemmin poistaa) Markin tili, vaikka hän valitti yritykseen poliisiraportin tuloksesta todisteena syyttömyydestään.

Tekniikka on edelleen puutteellinen, mutta sen virheiden ei pitäisi asettaa sinua kriittiseen tilaan, joka voisi vaarantaa sinut. Tämä ei päde Googlen koneoppimisluokittelijoihin ja hajautustekniikkaan, jotka luovat "hash- eli ainutlaatuisen digitaalisen sormenjäljen" kuvalle tai videolle, jotta sitä voidaan verrata tunnettujen CSAM-hajautusten kanssa. Googlen mukaan, kun tekniikka ja "koulutetut asiantuntijatiimit" havaitsevat CSAM:n, se raportoi National Center for Missing and Exploited Children (NCMEC), joka käynnistää tutkimuksen lainvalvontaviranomaisten avulla. Siitä huolimatta tekniikka ei ole 100 % tarkka, ja sen mahdollisesti tekemät virheet voivat merkitä suuria seurauksia kenelle tahansa.

Kohteeseen lähetetyssä sähköpostissa Verge Google kuitenkin väittää, että sen "lastenturvallisuusasiantuntijatiimi tarkistaa ilmoitetun sisällön tarkkuuden ja neuvottelee lastenlääkäreiden kanssa varmistaakseen, että pystymme tunnistamaan tapaukset, joissa käyttäjät saattavat pyytää lääkärin apua." Valitettavasti, vaikka kuvaus sopii Markin tapaukseen, Google ilmoitti silti isän rikolliseksi, mikä johti tutkimukseen ja hän menetti Google-tilinsä ja muut tärkeät pilvitiedostot. Sivuhuomautuksena Googlen tiedottaja selitti NYT:lle, että se suorittaa skannauksen vain, kun suoritetaan "myönteinen toimenpide", kuten valokuvien varmuuskopiointi Googlen pilveen.

Mukaan Googlen avoimuusraportti, se on jo raportoinut yhteensä 621,583 4,260 CSAM-tapauksesta NCMEC CyberTiplinelle, minkä seurauksena lainvalvontaviranomaiset ovat saaneet varoituksen 270,000 2021 mahdollisesta CSAM-ongelmasta (ja XNUMX XNUMX tilin poistamisesta), mukaan lukien Markin tapaus. Helmikuussa XNUMX tehdyn tutkimuksen jälkeen, joka osoitti, että rikkomuksia ei tapahtunut, se saa meidät kyseenalaiseksi Google AIkyky liputtaa lasten hyväksikäyttöä tai hyväksikäyttöä. Ja koska se voi johtaa vakaviin seurauksiin, kuten pilvitietojesi ja -tilisi menettämiseen ja viranomaisten tutkimiseen, rikollisen syyttäminen Googlen työkalulla on puhdasta haittaa. Mikä pahempaa, se voi tarkoittaa yksityisyysongelmia, jolloin olet huolissasi asioista, jotka haluat tallentaa puhelimeesi tai ladata pilveen, riippumatta siitä, onko se lääketieteellisistä tai muista ei-loukkaavista syistä.

Jätä vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *