英国反儿童色情组织报告称,近几个月色情 AI 深度伪造数量激增
互联网观察基金会 (IWF) 已经存在近三十年
2分钟读
发表于
阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多
重点说明
- IWF 表示,近几个月来,色情 AI 深度伪造作品的制作速度“令人震惊”。
- 总部位于英国的反儿童色情组织在最近发布的 2024 年 XNUMX 月报告中公布了其发现。
- 苹果还因少报人工智能儿童性虐待内容而面临争议。
总部位于英国的反儿童色情组织互联网观察基金会(IWF)揭示了人工智能生成的儿童性虐待材料(AI CSAM)或所谓的色情 AI 深度伪造的令人不安的趋势。
这款 2024年XNUMX月报告周一发布的一项研究称,此类内容的制作速度“令人震惊”。2024 年 XNUMX 月至 XNUMX 月期间,研究人员在一个暗网论坛上发现了 XNUMX 个新的儿童虐待深度伪造视频,这些视频在之前的一项调查中没有出现。 2023 年 10 月.
除了, 该研究 还发现一个月内发布了 12,000 多张新的 AI 生成图片,其中超过 3,500 张被视为犯罪图片,并描述了严重虐待行为。这项技术,尤其是 LoRA 模型,使犯罪分子能够创建高度逼真的假受害者和真实受害者图像。
“不幸的是,英国立法落后于人工智能技术的进步。虽然人工智能儿童性虐待是非法的,IWF 可以采取措施将其删除,但对儿童性虐待图像进行微调的人工智能模型却并非如此。用于创建奥利维亚人工智能图像的工具在英国仍然是合法的,”报告中写道。
2023 年 20,200 月的上一份报告发现,一个月内,暗网论坛上发布了 11,100 多张人工智能生成的儿童性虐待图片。其中,超过 2,500 张经过评估,超过 400 张被归类为犯罪伪造照片,约 XNUMX 张被归类为违禁图片。
英国的 IFW 已经运营了近三十年。2022 年 XNUMX 月,IFW 和 Pornhub 推出了 “reThink”聊天机器人 阻止用户搜索儿童性虐待材料,第一个月就吸引了超过 173,000 名用户,并将他们引导至支持服务。
该报告本身是在苹果最近引发争议的背景下发布的 少报CSAM 与 Meta 和 Google 等其他科技巨头相比,他们的平台
英国国家防止虐待儿童协会 (NSPCC) 表示,苹果的 iCloud、iMessage 和 Facetime 在英格兰和威尔士涉及的儿童性虐待案件比这家科技巨头在全球范围内报告的案件还要多。苹果曾计划采用人工智能扫描 iCloud 上的此类内容,但由于数据收集隐私问题,该计划已被放弃。
用户论坛
0消息