영국 아동 포르노 반대 단체, 최근 몇 달 동안 포르노 AI 딥페이크 급증 보고
인터넷 감시 재단(IWF)은 거의 30년 동안 존재해 왔습니다.
2 분. 읽다
에 게시됨
공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기
주요 사항
- IWF는 포르노 AI 딥페이크가 최근 몇 달 동안 “놀라운 속도”로 생산되고 있다고 밝혔습니다.
- 영국에 본부를 둔 아동 포르노 반대 단체는 최근 발표된 2024년 XNUMX월 보고서에서 그 결과를 공개했습니다.
- 애플은 AI 아동 성학대 자료를 과소보고해 논란도 빚고 있다.
영국에 본부를 둔 아동 포르노 반대 단체인 인터넷 감시 재단(IWF)은 AI가 생성한 아동 성적 학대 자료(AI CSAM), 즉 소위 포르노 AI 딥페이크의 불안한 추세를 폭로했습니다.
이 어플리케이션에는 XNUMXµm 및 XNUMXµm 파장에서 최대 XNUMXW의 평균 출력을 제공하는 2024 년 XNUMX 월 보고서월요일에 게시된 에서는 그러한 콘텐츠가 "무서운 속도"로 생산되고 있다고 말합니다. 2024년 XNUMX월부터 XNUMX월 사이에 연구원들은 다크 웹 포럼에서 아동 학대에 대한 XNUMX개의 새로운 딥페이크 동영상을 발견했는데, 이는 이전 조사에는 없었던 것입니다. 2023년 10월.
게다가, 연구 또한 한 달에 게시된 12,000개 이상의 새로운 AI 생성 이미지를 발견했으며, 그 중 3,500개 이상이 범죄로 간주되고 심각한 학대를 묘사합니다. 이 기술, 특히 LoRA 모델을 사용하면 범죄자는 가짜 피해자와 실제 피해자 모두의 매우 사실적인 이미지를 만들 수 있습니다.
“안타깝게도 영국의 법률은 AI 기술의 발전에 뒤처지고 있습니다. AI CSAM은 불법이고 IWF가 이를 제거하기 위한 조치를 취할 수 있지만, 아동 성적 학대 이미지를 정밀 조정한 AI 모델의 경우에는 그렇지 않습니다. 올리비아의 AI 이미지를 생성하는 도구는 영국에서 여전히 합법적입니다.”라고 보고서는 말합니다.
이전 2023년 20,200월 보고서에서는 AI로 생성된 아동 성적 학대 이미지가 한 달 만에 다크 웹 포럼에 게시된 11,100개 이상을 발견했습니다. 이 중 2,500개 이상이 평가되었으며, 400개 이상이 범죄 의사 사진으로 분류되었고 약 XNUMX개는 금지된 이미지로 분류되었습니다.
영국의 IFW는 거의 2022년 전부터 운영되어 왔습니다. XNUMX년 XNUMX월 IFW & Pornhub 출시 "reThink" 챗봇 사용자가 아동 성적 학대 자료를 검색하는 것을 막기 위해 첫 달에 173,000명 이상의 사용자를 참여시키고 지원 서비스로 안내했습니다.
이 보고서 자체는 Apple의 최근 논란 중에 나온 것입니다. CSAM을 과소 신고 Meta 및 Google과 같은 다른 기술 대기업과 비교하여 플랫폼에서.
영국 국립아동학대방지협회(NSPCC)는 Apple의 iCloud, iMessage 및 Facetime이 Apple이 전 세계적으로 보고한 것보다 영국과 웨일스에서 더 많은 CSAM 사례에 관여했다고 밝혔습니다. Apple은 iCloud에서 이러한 콘텐츠를 검색하기 위해 AI를 통합할 계획이었지만 데이터 수집 개인정보 보호 문제로 인해 이 계획은 포기되었습니다.
사용자 포럼
0 메시지