Google AI, 유아 온라인 상담 누드 사진으로 인해 아버지를 아동 학대 조사에 투입

독서 시간 아이콘 3 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

자녀의 사타구니 부기 사진을 찍어 온라인 진료에 사용한 마크라는 아버지가 경찰 조사를 받았다. 구글 이미지를 아동 성적 학대 자료(CSAM)로 신고했습니다. 의 보고서에 따르면 뉴욕 타임즈, 조사 결과 아버지의 사건은 “범죄의 요소를 충족하지 않고 범죄도 발생하지 않았다”는 것이 밝혀졌지만, 더 나빠져 자녀의 양육권을 잃을 수도 있었습니다. 더군다나 Google은 Mark의 계정을 비활성화(나중에 삭제)하기로 한 결정을 확고하게 유지했지만 그는 결백을 증명하기 위해 경찰 보고서 결과를 회사에 호소했습니다.

기술은 여전히 ​​결함이 있지만 그 실수로 인해 위험에 처할 수 있는 심각한 상황에 처하게 되어서는 안 됩니다. "알려진 CSAM의 해시와 비교할 수 있도록 이미지 또는 비디오에 대한 '해시' 또는 고유한 디지털 지문"을 생성하는 Google의 기계 학습 분류기 및 해시 일치 기술은 그렇지 않습니다. Google에 따르면 기술팀과 "훈련된 전문가 팀"이 CSAM을 감지하면 NCMEC(National Center for Missing and Exploited Children)에 보고하고 법 집행 기관의 도움을 받아 조사를 시작합니다. 그럼에도 불구하고 이 기술은 100% 정확하지 않으며 이 기술이 저지를 수 있는 실수는 누구에게나 큰 결과를 초래할 수 있습니다.

보낸 이메일에서 직전 그러나 Google에서는 "아동 안전 전문가 팀이 신고된 콘텐츠의 정확성을 검토하고 소아과 의사와 상의하여 사용자가 의학적 조언을 구할 수 있는 사례를 식별할 수 있도록 돕습니다"라고 주장합니다. 불행히도 설명은 Mark의 경우와 일치하지만 Google은 여전히 ​​아버지를 범죄자로 표시하여 조사를 진행하고 Google 계정과 기타 중요한 클라우드 파일을 잃어버렸습니다. 참고로 Google 대변인은 NYT에 사진을 Google 클라우드에 백업하는 것과 같은 "긍정적인 조치"가 수행될 때만 스캔을 수행한다고 설명했습니다.

이에 따르면 Google의 투명성 보고서, 이미 총 621,583건의 CSAM 사례를 NCMEC CyberTipline에 보고했으며, 그 결과 법 집행 기관은 Mark의 사례를 포함하여 4,260건의 CSAM 문제(및 270,000개의 계정이 비활성화됨)에 대해 경고를 받았습니다. 그러나 2021년 XNUMX월 조사에서 위반 사항이 없는 것으로 판명된 후 우리에게 의문을 제기합니다. Google AI의 플래그 기능 아동 학대 또는 착취. 그리고 클라우드 데이터와 계정을 잃어버리고 당국에서 조사를 받는 등 심각한 결과를 초래할 수 있다는 점에서 Google 도구에 의해 범죄자로 기소되는 것은 순수한 불편입니다. 설상가상으로 개인 정보 보호 문제를 의미할 수 있어 의료 또는 기타 불쾌하지 않은 이유에 관계없이 휴대전화에 저장하거나 클라우드에 업로드하려는 항목에 대해 우려할 수 있습니다.