英國反兒童色情組織報告近幾個月色情人工智慧深度假貨激增

網路觀察基金會 (IWF) 已有近三十年

閱讀時間圖標 2分鐘讀


讀者幫助支持 MSpoweruser。如果您透過我們的連結購買,我們可能會獲得佣金。 工具提示圖標

請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 閱讀更多

重點說明

  • IWF 表示,近幾個月來,人工智慧深度偽造的色情作品以「驚人的速度」產生。
  • 這家總部位於英國的反兒童色情組織在最近發布的 2024 年 XNUMX 月報告中揭示了其發現。
  • 蘋果也因少報人工智慧兒童性虐待材料而面臨爭議。
黑客,deepfake 插圖

總部位於英國的反兒童色情組織網路觀察基金會 (IWF) 揭示了人工智慧生成的兒童性虐待材料 (AI CSAM) 或所謂的色情人工智慧深度偽造的令人不安的趨勢。

2024年XNUMX月報告週一發布的文章稱,此類內容正在以「驚人的速度」產生。 2024 年 XNUMX 月至 XNUMX 月期間,研究人員在暗網論壇上發現了 XNUMX 個新的虐待兒童的深度偽造視頻,這些視頻在 XNUMX 年 XNUMX 月至 XNUMX 月的早期調查中並未出現 2023 年 10 月.

除了, 該研究 還發現單月發布的人工智慧生成的新圖像超過 12,000 張,其中超過 3,500 張被視為犯罪並描繪了嚴重的虐待行為。這項技術,特別是 LoRA 模型,允許犯罪者創建假受害者和真受害者的高度逼真的圖像。

「不幸的是,英國立法落後於人工智慧技術的進步。雖然 AI CSAM 是非法的,並且 IWF 可以採取措施將其刪除,但對於針對兒童性虐待圖像進行微調的 AI 模型來說,情況並非如此。用於創建奧利維亞人工智慧圖像的工具在英國仍然合法,」報告寫道。

上一份 2023 年 20,200 月的報告發現,一個月內,暗網論壇上發布了超過 11,100 張人工智慧產生的兒童性虐待圖像。其中,超過 2,500 張受到評估,其中 400 多張被列為犯罪偽照片,約 XNUMX 張被列為違禁影像。

英國的 IFW 在近三十年前開始運作。 2022 年 XNUMX 月,IFW 和 Pornhub 上線 “reThink”聊天機器人 為了阻止用戶搜尋兒童性虐待資料,第一個月就吸引了超過 173,000 名用戶,並引導他們尋求支援服務。

該報告本身是在蘋果最近引發爭議的背景下發布的。 少報 CSAM 與 Meta 和 Google 等其他科技巨頭相比,在他們的平台上。

英國國家防止虐待兒童協會 (NSPCC) 表示,蘋果的 iCloud、iMessage 和 Facetime 在英格蘭和威爾斯涉及的 CSAM 案件比這家科技巨頭在全球報告的還要多。蘋果曾計劃採用人工智慧來掃描 iCloud 上的此類內容,但由於資料收集隱私問題,該計劃已被放棄。

使用者論壇

0消息