Google AI mette il padre in un'indagine sugli abusi sui minori a causa della consultazione online di foto di nudo del bambino

Icona del tempo di lettura 3 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Un padre di nome Mark, che ha scattato una foto dell'inguine gonfio di suo figlio per usarla per un consulto medico online, è stato indagato dopo Google ha segnalato le immagini come materiale pedopornografico (CSAM). Secondo il rapporto di Il New York Times, sebbene l'indagine abbia rilevato che il caso del padre "non soddisfaceva gli elementi di un crimine e che non si è verificato alcun crimine", avrebbe potuto essere peggio, il che avrebbe potuto fargli perdere la custodia del figlio. Inoltre, Google è rimasto fermo sulla decisione di disabilitare (e successivamente eliminare) l'account di Mark, anche se ha fatto appello alla società con il risultato della denuncia della polizia come prova della sua innocenza.

La tecnologia rimane imperfetta, ma i suoi errori non dovrebbero metterti in una condizione critica che potrebbe metterti in pericolo. Questo non è il caso dei classificatori di apprendimento automatico di Google e della tecnologia di corrispondenza degli hash che creano "un 'hash' o un'impronta digitale univoca per un'immagine o un video in modo che possa essere confrontato con gli hash di CSAM noto". Secondo Google, una volta che la tecnologia e i "team di specialisti addestrati" rilevano CSAM, segnala al National Center for Missing and Exploited Children (NCMEC), che avvierà un'indagine con l'aiuto delle forze dell'ordine. Tuttavia, la tecnologia non è accurata al 100% e gli errori che potrebbe commettere potrebbero comportare grandi conseguenze per chiunque.

In un'e-mail inviata a La Verge di Google, tuttavia, la società afferma che il suo "team di esperti di sicurezza dei bambini esamina l'accuratezza dei contenuti segnalati e si consulta con i pediatri per garantire che siamo in grado di identificare i casi in cui gli utenti potrebbero richiedere un consiglio medico". Sfortunatamente, sebbene la descrizione si adatti al caso di Mark, Google ha comunque segnalato il padre come un criminale, il che ha portato a un'indagine e alla perdita del suo account Google e di altri importanti file cloud. In una nota a margine, un portavoce di Google ha spiegato al NYT che esegue la scansione solo quando viene eseguita un'"azione affermativa", come il backup delle foto sul cloud di Google.

Secondo il rapporto sulla trasparenza di Google, ha già segnalato un totale di 621,583 casi di CSAM alla NCMEC CyberTipline, con il risultato che le forze dell'ordine sono state allertate di 4,260 possibili problemi di CSAM (e 270,000 account disabilitati), incluso il caso di Mark. Tuttavia, dopo un'indagine nel febbraio 2021 che ha dimostrato che non sono state commesse violazioni, ci fa dubitare Google AIla capacità di flag abuso o sfruttamento minorile. E con il fatto che potrebbe comportare gravi conseguenze come la perdita dei dati e dell'account cloud e l'essere indagati dalle autorità, essere accusato di criminalità dallo strumento di Google è un puro inconveniente. Peggio ancora, potrebbe significare problemi di privacy, dandoti preoccupazioni sulle cose che desideri archiviare sul tuo telefono o caricare nel cloud, indipendentemente dal fatto che sia per motivi medici o altri motivi non offensivi.