Sztuczna inteligencja Google wszczyna śledztwo w sprawie molestowania dzieci w związku z konsultacjami online nagich zdjęć dziecka

Ikona czasu czytania 3 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Ojciec o imieniu Mark, który zrobił zdjęcie obrzęku pachwiny swojego dziecka, aby użyć go do konsultacji medycznej online, został zbadany po Google oflagowali obrazy jako materiały związane z wykorzystywaniem seksualnym dzieci (CSAM). Według raportu z The New York Times, chociaż śledztwo wykazało, że sprawa ojca „nie nosi znamion przestępstwa i że przestępstwo nie miało miejsca”, mogło być gorzej, co mogło skutkować utratą opieki nad dzieckiem. Co więcej, Google podtrzymał decyzję o wyłączeniu (a później usunięciu) konta Marka, chociaż odwołał się on do firmy, przedstawiając wynik raportu policyjnego jako dowód jego niewinności.

Technologia pozostaje wadliwa, ale jej błędy nie powinny powodować krytycznego stanu, który mógłby narazić Cię na niebezpieczeństwo. Tak nie jest w przypadku klasyfikatorów uczenia maszynowego Google i technologii dopasowywania skrótów, które tworzą „hasz” lub unikalny cyfrowy odcisk palca dla obrazu lub filmu, dzięki czemu można go porównać z hashami znanych CSAM”. Według Google, gdy technologia i „wyszkolone zespoły specjalistów” wykryją CSAM, zgłaszają się do National Center for Missing and Exploited Children (NCMEC), które z pomocą organów ścigania rozpocznie dochodzenie. Niemniej jednak technologia nie jest w 100% dokładna, a błędy, które może popełnić, mogą mieć poważne konsekwencje dla każdego.

W e-mailu wysłanym na adres Poboczy przez Google, jednak firma twierdzi, że jej „zespół ekspertów ds. bezpieczeństwa dzieci sprawdza zgłoszone treści pod kątem dokładności i konsultuje się z pediatrami, aby pomóc nam zidentyfikować przypadki, w których użytkownicy mogą szukać porady medycznej”. Niestety, chociaż opis pasuje do przypadku Marka, Google nadal oznaczyło ojca jako przestępcę, co doprowadziło do dochodzenia i utraty konta Google oraz innych ważnych plików w chmurze. Na marginesie, rzecznik Google wyjaśnił NYT, że wykonuje skanowanie tylko wtedy, gdy wykonuje się „działanie potwierdzające”, takie jak tworzenie kopii zapasowych zdjęć w chmurze Google.

Według raport przejrzystości Google, zgłosiła już 621,583 4,260 przypadki CSAM do NCMEC CyberTipline, w wyniku czego organy ścigania zostały zaalarmowane o 270,000 możliwych problemach CSAM (i 2021 XNUMX wyłączonych kont), w tym przypadku Marka. Jednak po dochodzeniu w lutym XNUMX r., które wykazało, że nie popełniono żadnych naruszeń, stawia nas w wątpliwość Google AI'zdolność do oflagowania znęcanie się lub wykorzystywanie dzieci. A biorąc pod uwagę, że może to skutkować poważnymi konsekwencjami, takimi jak utrata danych i konta w chmurze oraz wszczęcie dochodzenia przez władze, oskarżenie jako przestępcę przez narzędzie Google jest czystą niedogodnością. Co gorsza, może to oznaczać problemy z prywatnością, co daje obawy dotyczące rzeczy, które chcesz przechowywać w telefonie lub przesyłać do chmury, niezależnie od tego, czy jest to z powodów medycznych, czy innych nieobraźliwych powodów.