あなたがiPhoneに虐待的な画像を持っていると彼らが信じる場合、Appleは警察に通知します

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

iPhoneのプライバシー

  Financial Timesレポート Appleは、iPhoneの写真をスキャンして児童虐待の画像を探し、検出された場合は警察に連絡するシステムに取り組んでいます。

いわゆるneuralMatchシステムは、全米行方不明・搾取児童センターのデータベースでトレーニングされており、受話器にある写真とiCloudにアップロードされた写真は継続的にスキャンされます。

不正使用を示唆する画像が検出された場合、その画像は人間のレビュー担当者のチームに紹介され、画像が確認された場合は法執行機関に警告します。

システムは当初、米国のみです。

もちろん、Appleは他のクラウドストレージ会社と何も変わらないが、デバイス上のスキャンは例外である。

In 彼らのサポートドキュメント Appleはその利点を説明しています:

Appleは、既知のCSAMデータベースと一致しない画像については何も学習しません。

Appleは、iCloud Photosアカウントの一致のしきい値を超えるまで、一致したCSAM画像のメタデータまたはビジュアル派生物にアクセスできません。

システムがアカウントに誤ってフラグを立てるリスクは非常に低いです。 さらに、AppleはNCMECに対して行われたすべてのレポートを手動で確認して、レポートの正確性を確保します。

ユーザーは、既知のCSAMイメージのデータベースにアクセスしたり表示したりすることはできません。

ユーザーは、システムによってCSAMとしてフラグが立てられた画像を識別できません

もちろん、大きな懸念は誤検知とこれらの潜在的な結果です。 Appleはリスクは「非常に低い」と言っていますが、大数の法則により、リスクが1万分の1である場合、Appleの1000億人のiPhoneユーザーのうちXNUMX人が、何もしなくても警察に説明しなければならない可能性があります。何か問題があります。

もうXNUMXつの、それほど差し迫った懸念はありません。 EFFによって表現される、システムは、ミッションクリープによって、または全体主義政府による圧力によって、他の画像、たとえば、異議申し立てによって使用されるテロ行為やシンボル、さらにはLGBT画像を含めるように圧力をかけることによって拡大される可能性があります。これは、東ヨーロッパで右翼政府を増やす場合のお気に入りのターゲットです。 。

この機能はiOS15の一部として展開されます。

Engadgetの

トピックの詳細: リンゴ, 個人情報保護

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *