英国の児童ポルノ反対団体は、ここ数ヶ月でポルノAIディープフェイクが急増していると報告

インターネットウォッチ財団(IWF)は30年近く前から存在しています

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • IWFは、ポルノAIディープフェイクがここ数カ月で「恐ろしいペース」で生産されていると述べている。
  • 英国を拠点とする児童ポルノ反対団体は、最近発表された2024年XNUMX月の報告書で調査結果を明らかにした。
  • Apple はまた、AI による児童性的虐待資料の報告不足についても論争に直面している。
ハッカー、ディープフェイクのイラスト

英国を拠点とする児童ポルノ反対団体、インターネット・ウォッチ財団(IWF)は、AI生成の児童性的虐待素材(AI CSAM)、いわゆるポルノAIディープフェイクの憂慮すべき傾向を明らかにした。

この 7月2024レポート月曜日に投稿された報告書は、そのようなコンテンツが「恐ろしい速度」で生産されていると述べている。2024年XNUMX月からXNUMX月にかけて、研究者らはダークウェブフォーラムで児童虐待のディープフェイク動画XNUMX本を発見したが、これはXNUMX年XNUMX月に行われた以前の調査にはなかったものである。 2023年10月.

また、 研究 また、12,000か月間で3,500枚を超える新しいAI生成画像が投稿され、そのうちXNUMX枚以上が犯罪とみなされ、深刻な虐待を描写していることが判明しました。この技術、特にLoRAモデルにより、犯罪者は偽の被害者と実際の被害者の両方の非常にリアルな画像を作成できます。

「残念ながら、英国の法律はAI技術の進歩に遅れをとっている。AI CSAMは違法であり、IWFはそれを排除する措置を講じることができるが、児童性的虐待の画像で微調整されたAIモデルについては同じことが当てはまらない。オリビアのAI画像を作成するツールは英国では合法のままである」と報告書には書かれている。

前回の2023年20,200月の報告書では、11,100か月間でダークウェブフォーラムに2,500万400枚を超えるAI生成の児童性的虐待画像が投稿されたことがわかった。このうちXNUMX万XNUMX枚以上が評価され、XNUMX枚以上が犯罪疑似写真に分類され、約XNUMX枚が禁止画像と分類された。

英国のIFWは2022年近く前から運営されている。XNUMX年XNUMX月、IFWとPornhubは 「reThink」チャットボット 児童性的虐待コンテンツを検索するユーザーを阻止し、最初の 173,000 か月で XNUMX 人以上のユーザーを巻き込み、サポート サービスに誘導しました。

この報告自体は、アップルの最近の論争の中で発表された。 CSAMの過少報告 MetaやGoogleなどの他のテクノロジー大手と比較すると、自社のプラットフォーム上でのユーザーの数は少ない。

英国の全国児童虐待防止協会(NSPCC)は、イングランドとウェールズにおけるAppleのiCloud、iMessage、FacetimeによるCSAMの件数は、同社が世界的に報告している件数よりも多いと述べている。AppleはiCloudでそのようなコンテンツをスキャンするAIを組み込む計画だったが、データ収集に関するプライバシーの懸念から、計画は断念された。

ユーザーフォーラム

0メッセージ