Google AI привлекает отца к расследованию жестокого обращения с детьми из-за онлайн-консультации обнаженных фотографий малыша

Значок времени чтения 3 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

Отец по имени Марк, который сфотографировал опухший пах своего ребенка, чтобы использовать его для медицинской онлайн-консультации, попал под следствие после того, как Google пометил изображения как материалы сексуального насилия над детьми (CSAM). Согласно отчету от The New York Times, хотя следствие установило, что дело отца «не соответствовало признакам преступления и преступления не было», могло быть и хуже, что могло привести к лишению его опеки над ребенком. Более того, Google остался тверд в своем решении отключить (а позже и удалить) учетную запись Марка, хотя он и обратился в компанию с результатами полицейского отчета в качестве доказательства своей невиновности.

Технологии остаются несовершенными, но их ошибки не должны ставить вас в критическое состояние, которое может подвергнуть вас опасности. Это не относится к классификаторам машинного обучения Google и технологии сопоставления хэшей, которые создают «хэш» или уникальный цифровой отпечаток для изображения или видео, чтобы его можно было сравнить с хешами известного CSAM». По словам Google, как только техника и «обученные группы специалистов» обнаруживают CSAM, они сообщают об этом Национальному центру пропавших без вести и эксплуатируемых детей (NCMEC), который инициирует расследование с помощью правоохранительных органов. Тем не менее, технология не является на 100% точной, и ошибки, которые она может допустить, могут иметь серьезные последствия для любого человека.

В электронном письме, отправленном на адрес Грань Google, однако компания утверждает, что ее «команда экспертов по безопасности детей проверяет помеченный контент на точность и консультируется с педиатрами, чтобы помочь нам определить случаи, когда пользователи могут обращаться за медицинской помощью». К сожалению, несмотря на то, что описание соответствует случаю Марка, Google по-прежнему помечал отца как преступника, что привело к расследованию и потере его учетной записи Google и других важных облачных файлов. В качестве примечания представитель Google объяснил NYT, что сканирование выполняется только при выполнении «позитивных действий», таких как резервное копирование фотографий в облако Google.

Согласно отчет о прозрачности Google, он уже сообщил о 621,583 4,260 случаях CSAM в NCMEC CyberTipline, в результате чего правоохранительные органы были предупреждены о 270,000 возможных проблемах CSAM (и 2021 XNUMX отключенных учетных записей), включая дело Марка. Однако после проведенного в феврале XNUMX года расследования, доказавшего, что нарушений не было, это заставляет задуматься. Google AIспособность помечать жестокое обращение или эксплуатация детей. А с учетом того, что это может привести к серьезным последствиям, таким как потеря ваших облачных данных и учетной записи и расследование со стороны властей, обвинение инструмента Google в качестве преступника — чистое неудобство. Хуже того, это может означать проблемы с конфиденциальностью, вызывая у вас беспокойство по поводу того, что вы хотите хранить на своем телефоне или загружать в облако, независимо от того, по медицинским или другим причинам, не оскорбляющим вас.