如果他們認為您的 iPhone 上有辱罵性圖片,Apple 會通知警方

閱讀時間圖標 2分鐘讀


讀者幫助支持 MSpoweruser。如果您透過我們的連結購買,我們可能會獲得佣金。 工具提示圖標

請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 阅读更多

iphone隱私

金融時報報導 蘋果正在開發一種系統,該系統將掃描你 iPhone 上的照片以查找虐待兒童的圖像,然後在檢測到時聯繫警方。

所謂的神經匹配系統已經在國家失踪和受虐兒童中心的數據庫上進行了訓練,您手機上的照片和上傳到 iCloud 的照片將被連續掃描。

如果檢測到暗示濫用的圖像,該圖像將被提交給一組人工審核人員,如果圖像得到驗證,他們將向執法部門發出警報。

該系統最初僅限美國使用。

蘋果當然沒有做任何與其他雲存儲公司不同的事情,儘管設備上的掃描是一個例外。

In 他們的支持文件 蘋果解釋了這些好處:

Apple 不會了解與已知 CSAM 數據庫不匹配的圖像的任何信息。

在超過 iCloud 照片帳戶的匹配閾值之前,Apple 無法訪問匹配的 CSAM 圖像的元數據或視覺衍生產品。

系統錯誤標記帳戶的風險極低。 此外,Apple 會手動審核向 NCMEC 提交的所有報告,以確保報告的準確性。

用戶無法訪問或查看已知 CSAM 圖像的數據庫。

用戶無法識別系統將哪些圖像標記為 CSAM

當然,最大的擔憂是誤報及其潛在後果。 雖然蘋果公司表示風險“極低”,但由於大數定律,如果風險為百萬分之一,這意味著蘋果十億 iPhone 用戶中的 1 人可能最終不得不向警方解釋,儘管沒有這樣做哪裡不對了。

另一個不太直接的問題, 由 EFF 表示, 是該系統可能會因任務蔓延或極權主義政府的壓力而擴大,以包括其他圖像,例如恐怖行為或持不同政見者使用的符號,甚至 LGBT 圖像,如果東歐右翼政府越來越多,這是一個最喜歡的目標.

該功能將作為 iOS 15 的一部分推出。

通過 癮科技

有關主題的更多資訊: 蘋果, 隱私

發表評論

您的電子郵件地址將不會被發表。 必填字段標 *