AI の誤用に関する統計: 50 以上の憂慮すべき統計と事実
19分。 読んだ
更新日
MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む
これらの驚くべき AI の誤用統計は、AI の応用がすべて良いわけではないことを示しています。
人工知能は今や私たちの日常生活の重要な一部となっています。医学研究から学生の学習ツールまで、すでにあらゆる産業の効率化に役立っています。その欠点をいくつか見てみましょう。
最も衝撃的な AI の誤用に関する統計
不正行為、著作権侵害、政治への干渉、あるいは最悪のディープフェイクなど、AI の悪用の規模と範囲は衝撃を与えるでしょう。
- 1 年には、学生の課題 10 件中 2023 件に AI 生成コンテンツが含まれていました。
- 労働者の84%がAIの使用により企業データを漏洩した可能性がある。
- アーティストの 90% は、AI には著作権法が欠けていると考えています。
- 78% の人が AI が作成したフィッシング メールを開きます。
- ChatGPT以来フィッシングメールは1,256%増加 開始されました。
- 75%がディープフェイクが選挙に影響を及ぼす可能性があると懸念。
- NSFWディープフェイクの検索数は5,800年以降2019%増加しました。
- ディープフェイク「Nudify」アプリを毎月4万人が使用。
学生による AI 統計の誤用
教育におけるAI 正当な用途は数多くありますが、学生が自分の代わりに作業を行うためにそれを使用していないと考えるのは愚かです。
1. 1 年の学生の課題 10 件中 2023 件に AI 生成コンテンツが含まれていました。
(出典:Turnitin)
教育に特化したTurnitinの剽窃チェッカーがAI検出器を導入して以来、約1年で 高等教育の課題1件中10件 含まれている AIが生成したコンテンツ ChatGPT などのツール。
さらに、分析された200億件の論文のうち、 6万件のうち少なくとも80%はAIによって生成されたもの.
2. 調査対象となった学生のほぼ50%が、何らかの形で学習にAIを使用していることを認めました。
(出典:タイトン・パートナーズ)
2023年の論文によると、学生のほぼ半数がAIを使用しており、 12日あたりXNUMX%.
さらに心配なのは 75%がAIを今後も使い続けると回答 たとえ機関がそれを禁止したとしても。
3. AI の賛否については、学生と教員の意見は 50/50 に分かれています。
(出典:タイトン・パートナーズ)
同じ調査では、学生と教員の約半数が、春学期に AI が教育にプラスまたはマイナスの影響を与えると感じていることがわかりました。賛否両論が明確に分かれています。
興味深いことに、秋までに、 教員の61%がAIの導入に賛成している一方、39%は依然として否定的だと考えており、意見が徐々に変化していることを示しています。
4. 中学校および高校の教師の 68% が AI 検出ツールを使用しています。
(出典:民主主義と技術センター)
2024年の論文では、学校レベルの教師の大多数がAI検出を使用したと答えており、前年より増加している。
さらに、 ほぼ3分の2が、学生が処罰に直面していると報告している。 使用した疑いで generative AI 課題でこの割合は48~2022年度の2023%から増加しています。
AIは現在、中学校、高校、高等教育に完全に組み込まれているようです。
職場における AI の誤用に関する統計
AIは成長している すべての業界で。手抜きをしているのは学生だけではありません。AIを恐れたり、危険な方法で使用したりする労働者の割合は興味深いものです。
5. 労働者の半数以上が毎週 AI を使用しています。
(出典:オリバー・ワイマン・フォーラム)
15,000か国16人以上の労働者を対象とした調査によると、 50%が毎週AIを使用していると回答 作業用。
6. 労働者の 84% が AI の使用により会社のデータを漏洩した可能性があります。
(出典:オリバー・ワイマン・フォーラム)
同じ調査によると、AIを使用する人の84%が、 自社の機密データを漏洩する恐れがあったこれにより、データセキュリティに関して新たなリスクが生じます。
7. 懸念があるにもかかわらず、調査対象の従業員の 41% が財務部門で AI を使用する予定であると回答しました。
(出典:オリバー・ワイマン・フォーラム、CNNワールド)
リスクは財務にも及ぶ。調査対象となった従業員の61%がAIの結果の信頼性を懸念しているが、 回答者の40%は依然として「大きな財務上の決定」を下すためにそれを使用するだろう。
30% より良い結果が得られるのであれば、さらに多くの個人データを共有するだろう。
香港の金融関係者の一人が 25万ドルを騙し送金サイバー犯罪者は、ビデオ会議通話で同社の最高財務責任者のディープフェイクを行なった。
8. 従業員の 37% が不正確な AI 結果を目にしたことがある。
(出典:オリバー・ワイマン・フォーラム)
信頼性に関する懸念は当然のものであり、ほぼ 米国の従業員の40%は、「職場でAIを使用しているときにAIが起こしたエラー」を見たことがあると述べています。 おそらく、より大きな懸念は、何人の従業員が誤った情報に基づいて行動したかということだ。
興味深いことに、不正確なAI情報を認識している従業員の割合が最も高いのは インドでは55%これに続いてシンガポールでは54%、中国では53%となっている。
スケールの反対側では、 ドイツの従業員の31%がエラーを経験したことがある.
9. 従業員の 69% が個人データの悪用を懸念しています。
(出典: Forrester Consulting、Workday経由)
労働者からの潜在的なリスクに直面するのは雇用主だけではない。ワークデイが委託した2023年の調査によると、従業員のXNUMX分のXNUMXが職場でのAIの使用を懸念している。 自社のデータを危険にさらす可能性がある.
10. アメリカ人の 62% が、採用の決定における AI の利用を懸念しています。
(出典: Ipos Consumer Tracker、ISE、Workable)
従業員が労働力として働く前に、 採用決定におけるAI 懸念が高まっています。
Iposによれば、 アメリカ人の62% 採用候補者の選考に AI が活用されるようになると考えています。
ISEはこの恐怖を支持している。 雇用主の28%が採用プロセスでAIを活用.
さらに、3,211年に2023人の専門家を対象にした調査でも同様の数字が出ており、 950人(29.5%)が採用活動にAIを活用していると認めた.
11. アメリカ人が最も懸念しているのは、法執行における AI だ。
(出典: Ipos Consumer Tracker)
調査対象となったアメリカ人の67%は、警察や法執行機関でAIが悪用されることを懸念している。これに続いて、AIの採用や 「AIの応用に対する連邦政府の監督が不十分」(59%).
著作権 AI 不正使用統計
AI がアート スタイルやビデオ コンテンツなどの既存の情報にしか頼れない場合、元の作成者と著作権所有者はどうなるのでしょうか?
12. アーティストの 90% は、AI には著作権法が欠けていると考えています。
(出典: 本とアーティスト)
2023年の調査では、 9人中10人のアーティストが著作権法は時代遅れだと言っている AIに関して言えば。
また、 74.3%が、AI学習のためにインターネットのコンテンツをスクレイピングするのは非倫理的だと考えている.
年間収入の32.5%は美術品の販売とサービスから得られており、 54.6%がAIが収入に影響を及ぼすことを懸念している.
13. 進行中の集団訴訟では、アーティストに対する著作権侵害が主張されている。
(出典: データプライバシーとセキュリティインサイダー)
ビジュアルアーティストのサラ・アンダーセン、ケリー・マッケルナン、カーラ・オルティスは、 旅の途中、安定した拡散などがある。
裁判官は、AI モデルが著作権を侵害するような方法で機能する可能性があるとの判決を下し、原告の請求は続行できるとした。
14. ゲッティイメージズは、スタビリティAIが12万枚の画像を違法にコピーしたと主張。
(出典:ロイター)
個人のアーティストから写真界の巨人まで、ゲッティイメージズも安定した拡散を目指しています。
2023年、ストックフォトプロバイダーは訴訟を起こし、 スタビリティAIは、生成AIモデルをトレーニングするために12万枚の写真をコピーした。.
ゲッティは写真のライセンスを有料で提供しているが、10億ドル以上のAI大手は一度もその料金を支払ったことがない。
このような訴訟の結果は、 AIアート 写真ジェネレータが作動します。
15. 10 段階の著作権ベストプラクティスが提案されています。
(出典:ヒューストン・ロー・レビュー)
AI著作権侵害の問題に対処するために、マシュー・サグは次のような提案を行った。 10 のベスト プラクティス.
これらには、特定の詳細ではなく抽象化を学ぶためのプログラミングモデルや 既存の作品と類似しすぎるコンテンツをフィルタリングするさらに、著作権で保護された素材を含むトレーニング データの記録も保存する必要があります。
詐欺と犯罪的 AI 悪用に関する統計
キャットフィッシュから身代金要求まで、詐欺師や犯罪者は AI をますます恐ろしい方法で悪用しています。これらの統計と事実は、犯罪がますます巧妙化する未来を描き出しています。
16. 25%の人がAI音声クローン詐欺を経験したことがある。
(出典: マカフィー)
サイバー犯罪者はAIを使って人の声を複製し、それを電話詐欺に利用することができる。7,000年に2023人を対象に行われた調査では、XNUMX人にXNUMX人が音声詐欺を直接体験したことがある、または音声詐欺に遭った人を知っていると答えている。 持ってる.
さらに心配なことに、調査対象者の70%は、違いを区別できるかどうか自信がないと答えています。
17. AI音声クローン詐欺により、500ドルから15,000ドルが盗まれる。
(出典: マカフィー)
被害者の77%が金銭を失った 成功した AI 音声クローン詐欺は、小銭を狙っていません。
調査では、 ターゲットの36%が500ドルから3,000ドルの損失を被った約7%が5,000ドルから15,000ドルをだまし取られた。
18. サイバーセキュリティリーダーの 61% が AI が作成したフィッシングメールを懸念しています。
(出典: Egress)
犯罪者が悪用しているのは、最新の精巧な音声クローンだけではありません。従来のフィッシングメールも懸念が高まっています。
2024年には、 サイバーセキュリティリーダーの61%が、フィッシングにおけるチャットボットの使用が夜も眠れない原因になっていると回答これはAIが正確かつ高速だからかもしれません。
また、 52%が、サプライチェーンの妥協においてAIが有益であると考えているまた、47% がアカウント乗っ取りにつながるのではないかと懸念しています。
19. AI は詐欺師の説得力を高めるのに役立ちます。
(出典: Which)
私たちは皆、大金を送金すれば大金が手に入るという、裕福な王子様の典型的なメール詐欺を見たことがあるでしょう。 文法上の間違いや矛盾今では、こうした詐欺メールは通常、スパム フォルダーに埋もれてしまいます。
しかしながら、 AIチャットボットは英語以外の詐欺メッセージを除去できる より説得力を持たせるため。
規約に反しているにもかかわらず、合法的なメッセージを作成することができた ChatGPTとBardを使用してPayPalや配送サービスを装う.
20. 78% の人が AI が作成したフィッシング メールを開きます。
(出典:Sosafe)
説得力のある詐欺を作成する上での AI の有効性をさらに実証するために、ある調査では、受信者が AI によって作成されたフィッシング メールの約 80% を開封したことがわかりました。
研究では実際に人間が書いた詐欺でも同様の結果が出たが、 AIが生成したメールの方がインタラクション率が高い場合もあった.
ほぼ 3分の2の人が騙されて個人情報を漏らした 悪意のあるリンクをクリックした後のオンラインフォーム。
21. AI を使用するとフィッシング メールの作成が 40% 速くなります。
(出典:Sosafe)
研究によれば、AI の力によって詐欺がより説得力のあるものになるだけでなく、詐欺をより速く実行できるようになることも示唆されています。
フィッシングメールはAIを使うことで40%高速化される。つまり数字のゲームでは、 サイバー犯罪者はより成功するだろう 事業規模を拡大することができます。
22. ChatGPT が開始されて以来、フィッシングメールは 1,256% 増加しました。
(出典: SlashNext)
相関関係は必ずしも因果関係を意味するわけではありませんが、AIとフィッシングは密接に関係しています。ChatGPTがリリースされて以来、驚くべき フィッシングメールの送信数が1,265%増加.
23. サイバー犯罪者は、WormGPT や FraudGPT などの独自の AI ツールを使用します。
(出典: SlashNext – WormGPT、KrebOnSecurity)
ChatGPTのような公開AIツールは、 サイバー犯罪 しかし、犯罪者は規制を回避するために、WormGPT や FraudGPT などの独自のツールを開発しました。
証拠が示唆している WormGPTはビジネスメール詐欺攻撃に関与している (BEC)また、悪意のあるコードを書くこともできます マルウェア.
WormGPTは、チャネルを通じてプラットフォームへのアクセスを販売しています。 暗号化されたTelegramメッセージングアプリ.
24. ダークウェブでは 200 を超える AI ハッキング サービスが利用可能です。
(出典:インディアナ大学、WSJ経由)
他の多くの 悪意のある大規模言語モデル 存在します。インディアナ大学の調査により、ダークウェブ上でこの種のサービスが200件以上販売または無料で提供されていることが分かりました。
この種の最初のものは、ChatGPT 自体が 2022 年に稼働を開始してからわずか数か月後に登場しました。
よくあるハックの1つは 即注射、これは一般的な AI チャットボットの制限を回避します。
25. AI は何千もの悪意のある AI メールを検出しました。
(出典:WSJ)
皮肉なことに、アブノーマル・セキュリティのような企業は、AIを使ってどの悪意のあるメールがAIによって生成されたものかを検出している。同社は2023年以降、数千のメールを検出したと主張している。 個人向けメール攻撃を2倍ブロック 同じ期間に。
26. インド人の 39% がオンライン デートの相手が詐欺師であることに気付きました。
(出典:マカフィー – インド)
サイバー犯罪者はロマンスを被害者を見つけるための情報源の一つとして利用しており、インドでの最近の調査では、 オンラインデートのやり取りの40%に詐欺師が関与している.
通常の偽のプロフィール写真からAIが生成した写真やメッセージまで、恋愛詐欺師が出会い系アプリやソーシャルメディアアプリに蔓延していることが調査で判明した。
27. 調査対象となったインド人の 77% が、AI が生成したプロフィールとやり取りしたことがあると考えています。
(出典:マカフィー – インド)
この 7,000人を対象とした調査 インド人の77%が偽造品に遭遇したことが明らかになった AIデート プロフィールと写真。
さらに、恋愛対象として可能性のある人に回答した人のうち、 26%が何らかのAIボットであると認識した.
しかし、研究によれば、AI を使ったキャットフィッシュの技術を取り入れている文化もあるかもしれないことが示唆されています。
28. インド人の 80% 以上が、AI が生成したコンテンツの方がより良い反応を得られると考えています。
(出典:マカフィー – インド、オリバー・ワイマン・フォーラム)
同じ調査によると、多くのインド人がオンラインデートの世界で自分の魅力を高めるために AI を利用しているが、必ずしも詐欺目的ではないことがわかった。
インド人の65%が、出会い系アプリで写真やメッセージを作成または拡張するために生成AIを使用している.
そして、それは機能しています。 81%が、AIが生成したメッセージは、自分自身の自然なメッセージよりもエンゲージメントが高いと回答.
実際には、 56年のバレンタインデーに、2024%がチャットボットを使って恋人により良いメッセージを送る予定だった。.
実際、他の研究によると 28%の人がAIが人間の本当の感情の深さを捉えられると信じている.
しかし、インド人は注意すべきです。60%が、 AIメッセージ バレンタインの恋人からこのようなことを言われたら、傷つき、不快に感じるでしょう。
29. ある「Tinder詐欺師」は、女性被害者から約10万ドルを詐取した。
(出典: フォーチュン)
最も有名な出会い系詐欺師の一人はシモン・ハユットです。彼はサイモン・レヴィエフという偽名を使い、アプリや改ざんされたメディア、その他の策略を使って女性から10万ドルを騙し取りました。
しかし、Netflixの人気ドキュメンタリー「Tinder Swindler」に出演した後、状況は一変した。彼は ソーシャルメディアで7,000ドルを騙し取られた 2022インチ
報道によると、Instagram でメタとつながりのあるカップルを装った人物がいたという。その人物はメタに PayPal 経由で送金させることに成功した。
AIフェイクニュースとディープフェイク
ネット上のフェイクニュースや誤報は目新しいものではありません。しかし、AI の力により、偽ニュースや誤報は拡散しやすくなり、本物、偽物、ディープフェイクのコンテンツを区別することが難しくなっています。
30. ディープフェイクは10年に2023倍に増加しました。
(出典:Sumsub)
AI技術が主流になるにつれ、ディープフェイクも増加しました。データによると、検出されたディープフェイクの数は10年に2023倍に増加し、今年も増加傾向にあります。
業界別に見ると、 暗号通貨関連のディープフェイクは、検出されたもの全体の88%を占めた。.
地域別に見ると、北米では ディープフェイク詐欺が1,740%増加.
31. AI が生成したフェイクニュースの投稿が 1,000 か月で XNUMX% 増加しました。
(出典:ワシントンポスト経由のNewsGuard)
ファクトチェッカーのNewsGuardによると、2023年1,000月だけでフェイクニュース風の記事の数はXNUMX%増加した。
この研究では、 AIを活用した誤情報ウェブサイトが49から600に急増 同じ期間に、それぞれの基準に基づいて。
金銭的動機であろうと政治的動機であろうと、AI は現在、ソーシャル メディアで広く共有される偽ニュースの最前線に立っています。
32. AIによるフェイクニュースを最も懸念しているのはカナダ。
(出典: 出典: Ipos Global Advisor)
21,816カ国の29人の国民を対象にした調査では、 カナダ人の65%はAIがフェイクニュースを悪化させるのではないかと懸念している.
アメリカ人は56%とやや不安が少なかった。理由の一つとして、カナダの地元報道機関の数が減少し、人々があまり知られていない情報源に頼らざるを得なくなったことが挙げられます。
33. 74% が、AI によってリアルなフェイクニュースや画像の生成が容易になると考えています。
(出典: 出典: Ipos Global Advisor)
各国で調査した全国民のうち74%が、AIによって真実のニュースと偽のニュース、実際の画像と区別することが難しくなっていると感じていた。
インドネシア人の89%が最も強いと感じた この問題について最も関心が低かったのはドイツ人(64%)だった。
34. 56% の人は、画像が本物か AI によって生成されたものか判別できません。
(出典:オリバー・ワイマン・フォーラム)
研究は示唆している 半数以上の人がAIが生成した偽画像を区別できない そして本物。
35. AI画像が、20年第3四半期のFacebookの最も閲覧された投稿トップ2023にランクインしました。
(出典: ミスインフォレビュー)
信じるかどうかは別として、AI画像はどこにでもある。2023年第XNUMX四半期には、 AI画像は40万回の視聴と1.9万以上のエンゲージメントを獲得これにより、この投稿は、その期間の最も多く閲覧された投稿のトップ 20 にランクインしました。
36. AI 画像を多用した Facebook ページ 146,681 件を平均 125 人がフォローしています。
(出典: ミスインフォレビュー)
平均146人がフォロー それぞれ少なくとも125枚のAI生成画像を投稿したFacebookページ50件 3年第2023四半期中。
これは単なる無害な芸術ではなく、研究者は多くをスパマー、詐欺師、エンゲージメント ファームとして分類しました。
全体として、 画像は数億回閲覧されたこれは Facebook 上のそのようなページのほんの一部にすぎません。
37. 消費者の 60% が過去 XNUMX 年間にディープフェイクを見たことがありました。
(出典:Jumio)
8,000人以上の成人消費者を対象とした調査によると、60%が過去XNUMX年間にディープフェイクコンテンツに遭遇した。 22%は不明、のみ 15%はディープフェイクを見たことがないと答えた.
もちろん、品質によっては、見たかどうかさえわからない場合もあります。
38. 75% がディープフェイクが選挙に影響を及ぼす可能性があると懸念している。
(出典:Jumio)
米国では、 回答者の72%がAIディープフェイクが今後の選挙に影響を与えることを懸念.
最大の懸念はシンガポールとメキシコ(それぞれ83%)、一方英国は選挙への介入をあまり心配していない。 60%.
それにもかかわらず、英国の回答者は政治家のディープフェイクを見抜く能力が最も低いと感じていた(33%).
シンガポールは最も自信があった 60%これは、恐怖がディープフェイクに対する個人の認識と相関していることを示唆している可能性がある。
39. 政治に関するディープフェイクが最も一般的です。
(出典: DeepMind)
最も一般的な誤用は AIディープフェイク DeepMindとGoogleのJigsawの調査によると、これは政治分野におけるものだ。
より正確に、 27% 報告されたすべてのケースのうち、 政治的現実に対する国民の認識を歪める。
この トップ3の戦略 偽情報、イメージの醸成、名誉毀損です。
世論操作以外では、収益化と利益、詐欺と不正行為が2番目に多く、 ディープフェイクの3番目に多い目的.
40. AI コンテンツを見つける方法を学んだ学生はわずか 38% です。
(出典:民主主義と技術センター)
教育はディープフェイクの影響に対処する一つの方法ですが、学校は失敗しているかもしれません。 英国の学生の38% AIが生成した画像、テキスト、動画を見分ける方法を教えられたと答えた。
一方、 生徒の71%が教師からの指導を希望していると回答.
成人向け、犯罪的、不適切な AI コンテンツ
アダルト業界は常にテクノロジーの最先端を走っており、AI は次のステップに過ぎません。しかし、ユーザーが本物だと思っているコンテンツにお金を払ったらどうなるでしょうか? あるいは、もっと悪いことに、同意なしにディープフェイクを作ったりしたらどうなるでしょうか?
41. 143,000年には2023本を超えるNSFWディープフェイク動画がアップロードされました。
(出典:チャンネル4ニュース、ガーディアン経由)
有名人の粗雑な偽画像をアダルトスターに重ねたものは何十年も前から存在していたが、AI によってその質と人気が向上し、動画も登場している。
2022年/2023年にAI技術が急速に進化したため、 143,733年第1四半期から第3四半期にかけて、2024本の新たなディープフェイク動画がウェブ上に登場した。.
42. NSFWディープフェイクの検索は5,800年以降2019%増加しました。
(出典: SEMRush、Law News経由)
の台頭の一例 アダルトディープフェイク 検索エンジンのボリュームを監視することで見つけることができます。SEMRushを使用した分析によると、この文脈での用語は 58年から2019倍増加.
43. 4,000人の有名人がNSFWディープフェイクの被害者となっている。
(出典:チャンネル4ニュース、ガーディアン経由)
最も人気のあるアダルトディープフェイクウェブサイトを調査したところ、約 4,000 人の有名人の肖像が露骨な画像や動画に生成されたことが判明しました。
5つのサイトが100億回以上の閲覧数を獲得 2023年のXNUMXか月間にわたって。
現在、多くの国がそのようなコンテンツを違法とする法律を提案しています。
44. ディープフェイク画像の 96% はアダルトコンテンツです。
(出典: Deeptrace)
2019年には、オンライン上のディープフェイクの96%が成人向けのものでした。 100%女性でした 同意を与えなかった人々(主に有名人)です。
一方、YouTubeではヌードが禁止されており、 ディープフェイクの61%は男性だった そして「解説ベース」。
45. テイラー・スウィフトのディープフェイクは2024年に27万回以上再生され、話題になりました。
(出典: NBC ニュース)
2024年XNUMX月、テイラー・スウィフトは ディープフェイクで最も多く視聴されたテーマ いつ NSFW AI画像 そして動画は主にTwitter/Xでオンラインで拡散されました。
19時間で、主要なコンテンツ 260,000万件以上のいいねを獲得その後、プラットフォーム側は彼女のコンテンツを削除し、トレンドアルゴリズムから一時的に彼女をブロックした。
いくつかのディープフェイクではテイラー・スウィフトがトランプ支持者として描かれていた。
46. ジェナ・オルテガは、英国で2番目に検索されたディープフェイクの有名人です。
(出典: SEMRush、Law News経由)
英国の検索データによると、テイラー・スウィフトに次いで、女優のジェナ・オルテガがアダルト・ディープフェイクで最も検索された有名人となっている。
彼女は インフルエンサーのブルック・モンクと女優のミリー・ボビー・ブラウンと同率.
この トップ20リスト 歌手のビリー・エリッシュからストリーマーのポキマネまで、あらゆる人が参加していますが、全員が女性です。
47. 偽の AI モデルは OnlyFans プラットフォームで毎月数千ドルを稼いでいます。
(出典:スーパークリエイター、フォーブス)
OnlyFans や同様のプラットフォームはアダルトコンテンツで知られていますが、今では AI のおかげで、生身の人間がカメラの前ですべてをさらけ出す必要がなくなりました。
TheRRRealist や Aitana López のようなペルソナ 月に数千ドル稼ぐ.
前者は偽物であることを公然と認めているが、後者はより控えめで、 倫理的な疑問を提起する彼らだけではありません。
さらに AIインフルエンサー アダルト分野以外では、オリビア・C(2人組)のように、宣伝や広告で生計を立てている人もいます。
48. 1,500 台の AI モデルが美人コンテストを開催しました。
(出典:有線)
世界AIクリエイターアワード(WAICA)は、AIインフルエンサープラットフォームFanvueを通じてこの夏に開始されました。その一つはAI美人コンテストで、ケンザ・レイリ(または彼女の匿名のクリエイター)が優勝しました。 $10,000.
コンテストには、1,500 を超える AI 作品が、精巧な背景やライフスタイルとともに応募された。モロッコの Kenza のペルソナは、女性と多様性をエンパワーするという前向きなメッセージを発信していたが、ディープフェイクの悪用は必ずしも「高揚感」をもたらすわけではない。
49. 教師と生徒を標的とした広範囲にわたるディープフェイクスキャンダルに6,000人が抗議した。
(出典:BBC、ガーディアン、コリアタイムズ、CNN)
2024年に韓国で一連の学校ディープフェイクスキャンダルが発生し、 数十万人のTelegramユーザー 女性教師と生徒のNSFWディープフェイクを共有していました。
60人以上の犠牲者が特定されたのAI画像が一般のソーシャルメディアに拡散した。
これは 6,000人が抗議 ソウルで、そして最終的には、 800件の犯罪 記録され、そのうちのいくつかは有罪判決につながり、新しい法律が可決されました。
彼らは周囲に 200校、 被害者と加害者の大半は10代の若者です。
50. 毎月4万人が女性や子供を対象にディープフェイクの「ヌード化」アプリを使用している。
(出典:Wired – Nudify)
有名人以外にも、ディープフェイク AI の悪用ははるかに暗い影響を及ぼします。
2020年、女性や子供の写真を「脱がす」AI搭載アプリの調査で、 Telegram のボット 50 個 さまざまなレベルのディープフェイクを作成した。2人だけで 400,000人以上のユーザー.
51. 20,000 か月で XNUMX 件を超える AI 生成 CSAM が XNUMX つのダーク ウェブ フォーラムに投稿されました。
(出典:IWF)
AI の悪用に関する統計で最も衝撃的なのは、おそらく、2023 年にセキュリティ保護団体が発表したレポートでしょう。その調査員は、XNUMX か月の間にダーク ウェブ上のたった XNUMX つのフォーラムに AI が生成した CSAM が数万件も投稿されていることを発見しました。
報告書では、2024年にはこれが増加しており、クリアウェブ上でもそのような AI 画像が増加していると指摘しています。
この種の漫画、絵、アニメーション、疑似写真は英国では違法です。
要約
多くの分野で AI が採用されているにもかかわらず、まだ無法地帯です。社会は何を適切とみなすのでしょうか。また、さらなる規制が必要でしょうか。
学生による課題の作成や職場での危険な使用から、リアルな詐欺や違法なディープフェイクまで、AI には懸念される用途が数多くあります。
AI の誤用に関する統計で明らかになったように、このテクノロジーをどこに向かわせたいのか、考え直す時期が来ているのかもしれません。
誤用が心配ですか? 下のコメント欄でお知らせください。
ソース:
1. Turnitin
2. タイトン・パートナーズ
5. CNNワールド
6. Forrester Consulting(Workday経由)
8. ISE
9. 実行可能な
10. 本とアーティスト
12. ロイター通信社
13. ヒューストン法のレビュー
14. マカフィー
15. 出口
16. ソサフ
17. スラッシュネクスト
19. クレブオンセキュリティ
20. インドイアナ大学(WSJ経由)
21. WSJ
22. マカフィー – インド
23. フォーチュン
24. サムサブ
26. イプソス グローバルアドバイザー
27. 誤情報レビュー
28. じゅみお
29. ディープマインド
30. 民主主義とテクノロジーセンター
32. ディープトレース
33. NBCニュース
34. NBCニュース2
36. スーパークリエイター
37. フォーブス
38. ワイヤード
39. BBC
40. 保護者
41. BBC 2
42. コリアタイムズ
43. CNN
44. ワイヤード – ヌード化
45. IWF
ユーザーフォーラム
1メッセージ