如果他们认为您的 iPhone 上有辱骂性图片,Apple 会通知警方

阅读时间图标 2分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

iphone隐私

金融时报报道 苹果正在开发一种系统,该系统将扫描你 iPhone 上的照片以查找虐待儿童的图像,然后在检测到时联系警方。

所谓的神经匹配系统已经在国家失踪和受虐儿童中心的数据库上进行了训练,您手机上的照片和上传到 iCloud 的照片将被连续扫描。

如果检测到暗示滥用的图像,该图像将被提交给一组人工审核人员,如果图像得到验证,他们将向执法部门发出警报。

该系统最初仅限美国使用。

苹果当然没有做任何与其他云存储公司不同的事情,尽管设备上的扫描是一个例外。

In 他们的支持文件 苹果解释了这些好处:

Apple 不会了解与已知 CSAM 数据库不匹配的图像的任何信息。

在超过 iCloud 照片帐户的匹配阈值之前,Apple 无法访问匹配的 CSAM 图像的元数据或视觉衍生产品。

系统错误标记帐户的风险极低。 此外,Apple 会手动审核向 NCMEC 提交的所有报告,以确保报告的准确性。

用户无法访问或查看已知 CSAM 图像的数据库。

用户无法识别系统将哪些图像标记为 CSAM

当然,最大的担忧是误报及其潜在后果。 虽然苹果公司表示风险“极低”,但由于大数定律,如果风险为百万分之一,这意味着苹果公司十亿 iPhone 用户中的 1 人可能最终不得不向警方解释,尽管没有这样做哪里不对了。

另一个不太直接的问题, 由 EFF 表示, 是该系统可能会因任务蔓延或极权主义政府的压力而扩大,以包括其他图像,例如恐怖行为或持不同政见者使用的符号,甚至 LGBT 图像,如果东欧右翼政府越来越多,这是一个最喜欢的目标.

该功能将作为 iOS 15 的一部分推出。

通过 瘾科技

有关主题的更多信息: 苹果, 隐私政策

发表评论

您的电邮地址不会被公开。 必填带 *