A Google AI vizsgálat alá vonja az apát a gyermekbántalmazással kapcsolatban a kisgyermek online konzultációs meztelen fotói miatt

Olvasási idő ikonra 3 perc olvas


Az olvasók segítenek az MSpoweruser támogatásában. Kaphatunk jutalékot, ha a linkjeinken keresztül vásárol. Eszköztipp ikon

Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább

Egy Mark nevű apát, aki lefényképezte gyermeke duzzadt ágyékát, hogy online orvosi konzultációra használja fel, azután vizsgálták. Google a képeket gyermekek szexuális zaklatását használó anyagként (CSAM) jelölte meg. A jelentés szerint A New York Times, bár a nyomozás megállapította, hogy az apa ügye „nem felelt meg a bűncselekmény elemeinek, és nem történt bűncselekmény”, de lehetett volna rosszabb is, ami azt eredményezheti, hogy elveszíti gyermeke felügyeleti jogát. Sőt, a Google határozottan kitartott azon döntése mellett, hogy letiltja (és később törli) Mark fiókját, bár fellebbezett a cégnél a rendőrségi feljelentés eredményével ártatlanságának bizonyítékaként.

A technológia továbbra is hibás, de hibái nem hozhatnak olyan kritikus állapotba, amely veszélybe sodorhatja. Nem ez a helyzet a Google gépi tanulási osztályozóival és hash-illesztő technológiájával, amelyek „egy „kivonatot” vagy egyedi digitális ujjlenyomatot hoznak létre egy képhez vagy videóhoz, hogy össze lehessen hasonlítani az ismert CSAM hash-eivel. A Google szerint amint a technológia és a „kiképzett szakembercsapatok” észlelik a CSAM-ot, jelentést tesznek a National Center for Missing and Exploited Children (NCMEC) számára, amely a bűnüldöző szervek segítségével vizsgálatot indít. Ennek ellenére a technológia nem 100%-ban pontos, és az esetleges hibák bárki számára komoly következményekkel járhatnak.

Címre küldött e-mailben The Verge A Google azonban azt állítja, hogy „gyermekbiztonsági szakértői csapata felülvizsgálja a megjelölt tartalmat a pontosság érdekében, és konzultál a gyermekorvosokkal, hogy segítsen azonosítani azokat az eseteket, amikor a felhasználók esetleg orvosi tanácsot kérnek”. Sajnos, bár a leírás megfelel Mark esetének, a Google mégis bűnözőként jelölte meg az apát, ami nyomozáshoz vezetett, és elvesztette Google-fiókját és más fontos felhőfájlokat. Egy másik megjegyzés, a Google szóvivője elmagyarázta a NYT-nek, hogy csak akkor hajt végre szkennelést, ha „megerősítő műveletet” hajt végre, például biztonsági másolatot készít a fényképekről a Google felhőjébe.

Szerint a Google átláthatósági jelentése, már összesen 621,583 4,260 CSAM-esetet jelentett az NCMEC CyberTipline-nak, aminek eredményeként a bűnüldöző szerveket 270,000 lehetséges CSAM-problémára figyelmeztették (és 2021 XNUMX fiókot letiltottak), beleértve Mark esetét is. Azonban egy XNUMX februári vizsgálat után, amely bebizonyította, hogy nem történt jogsértés, ez megkérdőjelez bennünket Google AIjelző képessége gyermekbántalmazás vagy kizsákmányolás. És mivel ez súlyos következményekkel járhat, például felhőadatainak és fiókjának elvesztésével, valamint a hatóságok vizsgálatával, a Google eszköze bűnözőként való megvádolása pusztán kellemetlenség. Rosszabb esetben ez adatvédelmi problémákat is jelenthet, ami aggodalmát fejezi ki a telefonján tárolni vagy a felhőbe feltölteni kívánt dolgokkal kapcsolatban, függetlenül attól, hogy orvosi vagy egyéb, nem sértő okokból van-e szó.