ШІ Google залучив батька до розслідування жорстокого поводження з дитиною через фото оголеної дитини в онлайн-консультації

Значок часу читання 3 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Батько на ім’я Марк, який сфотографував набряклість паху своєї дитини, щоб використати його для медичної консультації онлайн, був досліджений після Google позначив зображення як матеріал сексуального насильства над дітьми (CSAM). Згідно з повідомленням від The New York Times , хоча слідство встановило, що справа батька «не містить ознак злочину і що злочину не було», все могло бути гірше, що могло призвести до втрати ним опіки над дитиною. Більше того, Google залишився непохитним у своєму рішенні вимкнути (а пізніше видалити) обліковий запис Марка, хоча він звернувся до компанії з результатом поліцейського звіту як доказ своєї невинуватості.

Технологія залишається недосконалою, але її помилки не повинні поставити вас у критичний стан, який може наражати вас на небезпеку. Це не стосується класифікаторів машинного навчання Google і технології зіставлення хешів, які створюють «хеш», або унікальний цифровий відбиток, для зображення чи відео, щоб його можна було порівняти з хешами відомого CSAM». Згідно з даними Google, як тільки техніка та «команди навчених спеціалістів» виявляють CSAM, вони повідомляють про це в Національний центр у справах зниклих і експлуатованих дітей (NCMEC), який розпочне розслідування за допомогою правоохоронних органів. Тим не менш, технологія не є 100% точною, і помилки, які вона може зробити, можуть призвести до серйозних наслідків для будь-кого.

В електронному листі, надісланому на адресу Грань Google, однак компанія стверджує, що її «команда експертів з безпеки дітей перевіряє позначений вміст на точність і консультується з педіатрами, щоб переконатися, що ми можемо визначити випадки, коли користувачі можуть звертатися за медичною допомогою». На жаль, хоча опис відповідає справі Марка, Google все одно позначив батька як злочинця, що призвело до розслідування та втрати ним облікового запису Google та інших важливих хмарних файлів. Крім того, представник Google пояснив NYT, що він виконує сканування лише тоді, коли виконується «позитивна дія», наприклад резервне копіювання фотографій у хмару Google.

Згідно зі звіт про прозорість Google, вона вже повідомила NCMEC CyberTipline про загалом 621,583 4,260 випадки сексуального насильства, в результаті чого правоохоронні органи отримали сповіщення про 270,000 2021 можливих проблем із сексуальним насильством (і XNUMX XNUMX облікових записів було вимкнено), включаючи випадок Марка. Однак після розслідування в лютому XNUMX року, яке довело відсутність порушень, це викликає у нас сумніви Google AIздатність позначати жорстоке поводження з дітьми або їх експлуатація. І з огляду на той факт, що це може призвести до серйозних наслідків, таких як втрата ваших хмарних даних і облікового запису та розслідування з боку органів влади, бути звинуваченим у злочинці інструментом Google є справжньою незручністю. Гірше того, це може означати проблеми з конфіденційністю, що викликає у вас занепокоєння щодо речей, які ви хочете зберігати на своєму телефоні чи завантажити в хмару, незалежно від того, чи є це з медичних чи інших необразливих причин.