AI 오용 통계: 50개 이상의 걱정스러운 통계와 사실

독서 시간 아이콘 19 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

AI 오용 통계

이러한 눈길을 끄는 AI 오용 통계는 모든 AI 응용 프로그램이 긍정적인 것은 아니라는 사실을 보여줍니다.

인공지능은 이제 우리 일상 생활의 핵심 부분이 되었습니다. 의학 연구에서 학생 학습 도구에 이르기까지, 이미 모든 산업을 간소화하고 있습니다. 인공지능의 몇 가지 단점을 살펴보겠습니다.

가장 충격적인 AI 오용 통계

사기, 저작권 침해, 정치 개입 또는 최악의 종류의 딥페이크이든 AI 오용의 규모와 범위는 당신을 충격에 빠뜨릴 것입니다.

  • 1년에는 학생 과제 10개 중 2023개에 AI가 생성한 콘텐츠가 포함될 것입니다.
  • 근로자의 84%가 AI를 사용하여 회사 데이터를 노출했을 수 있습니다.
  • 예술가의 90%는 AI에 대한 저작권법이 부족하다고 생각합니다.
  • 78%의 사람들이 AI가 작성한 피싱 이메일을 엽니다.
  • ChatGPT 이후 피싱 이메일이 1,256% 증가했습니다. 시작했다.
  • 75%가 딥페이크가 선거에 영향을 미칠 수 있다고 우려했습니다.
  • 5,800년 이후 NSFW 딥페이크에 대한 검색이 2019% 증가했습니다.
  • 매달 4만 명이 딥페이크 '누디파이' 앱을 사용합니다.

AI 통계의 학생 오용

교육의 AI 이 도구는 많은 합법적인 용도가 있지만, 학생들이 이를 이용해 과제를 대신 수행하지 않는다고 생각하는 것은 어리석은 일입니다.

1. 1년에는 학생 과제 10개 중 2023개에 AI가 생성한 콘텐츠가 포함될 것입니다.

(출처: Turnitin)

교육 중심의 Turnitin 표절 검사기가 AI 감지기를 출시한 지 약 1년이 지났습니다. 1개 중 10개의 고등교육 과제 포함 AI가 생성한 콘텐츠 ChatGPT와 같은 도구.

또한 분석된 200억 건의 논문 중 6만 개 중 최소 80%가 AI에서 생성되었습니다..

2. 설문 조사에 참여한 학생의 거의 50%가 학업을 위해 어떤 형태로든 AI를 사용했다고 인정했습니다.

(출처: 타이튼 파트너스)

2023년 논문에 따르면 거의 절반의 학생이 AI를 사용하고 있는 것으로 나타났습니다. 매일 12%.

그것이 더욱 걱정되는 것은 75%는 AI를 계속 사용할 것이라고 답했습니다. 기관에서 금지하더라도요.

3. 학생과 교수는 AI의 장단점에 대해 50/50으로 의견이 나뉩니다.

(출처: 타이튼 파트너스)

같은 조사에서 학생과 교수의 약 절반이 AI가 봄철에 교육에 긍정적 또는 부정적 영향을 미칠 것이라고 생각하는 것으로 나타났습니다. 찬반 양론에 대한 확실한 의견 차이입니다.

흥미롭게도 가을에는 교수진의 61%가 이제 AI 통합을 지지했습니다., 39%는 여전히 부정적으로 여겼습니다. 이는 의견의 점진적인 변화를 보여줍니다.

4. 중학교, 고등학교 교사의 68%가 AI 탐지 도구를 사용했습니다.

(출처: 민주주의와 기술 센터)

2024년 논문에 따르면 대다수의 학교 교사가 AI 감지를 사용했다고 답했으며, 이는 전년보다 증가한 수치입니다.

그 위에, 거의 3분의 2가 학생들이 결과에 직면했다고 보고했습니다. 사용했다고 주장됨 생성 적 AI 과제에 참여합니다. 이는 48-2022학년도의 2023%에서 증가했습니다.

AI는 이제 중학교, 고등학교, 대학 교육에 완전히 자리 잡은 것 같습니다.

직장에서의 AI 오용 통계

AI는 성장하고 있습니다 모든 산업에서. 학생들이 지름길을 가는 유일한 사람은 아닙니다. AI를 두려워하거나 위험한 방식으로 사용하는 근로자의 비율은 흥미롭습니다.

5. 근로자의 절반 이상이 매주 AI를 사용합니다.

(출처: Oliver Wyman 포럼)

15,000개국에 걸쳐 16명 이상의 근로자를 대상으로 한 연구에 따르면 50%는 매주 AI를 사용한다고 답했습니다. 작업.

6. 근로자의 84%가 AI를 사용하여 회사 데이터를 노출했을 수 있습니다.

(출처: Oliver Wyman 포럼)

직원 AI 오용

같은 연구에 따르면 AI를 사용하는 사람의 84%가 이를 인정했습니다. 자사 회사의 독점 데이터를 노출했을 수도 있습니다.이는 데이터 보안과 관련하여 새로운 위험을 초래합니다.

7. 우려에도 불구하고, 설문 조사에 참여한 직원의 41%가 금융 분야에서 AI를 사용할 의향이 있다고 밝혔습니다.

(출처: Oliver Wyman Forum, CNN World)

위험은 재정에도 확대됩니다. 설문 조사에 참여한 직원의 61%가 AI 결과의 신뢰성에 대해 우려하고 있지만, 그 중 40%는 여전히 이를 "중대한 재정적 결정"을 내리는 데 사용할 것입니다.

30% 더 나은 결과를 얻는다면 더 많은 개인 데이터를 공유하겠습니다.

아마도 홍콩의 한 금융 종사자가 다음과 같은 일을 한 후에는 그렇게 현명하지 않을 것입니다. 25만 달러를 송금하도록 속았다사이버 범죄자들은 ​​영상 컨퍼런스 통화에서 회사의 최고재무책임자를 속였습니다.

8. 근로자의 37%가 부정확한 AI 결과를 보았습니다.

(출처: Oliver Wyman 포럼)

신뢰성에 대한 우려는 거의 정당합니다. 미국 직원의 40%가 "직장에서 AI가 사용하는 동안 발생한 오류"를 목격했다고 말했습니다. 아마도 더 큰 문제는 얼마나 많은 직원이 거짓 정보에 따라 행동했는가 하는 것입니다.

흥미롭게도, 부정확한 AI 정보를 인식하는 직원의 가장 높은 비율은 인도에서는 55%그 다음으로는 싱가포르가 54%, 중국이 53%입니다.

저울의 반대편에는 독일 직원의 31%가 오류를 경험했습니다..

9. 직원의 69%가 개인 정보의 오용을 우려합니다.

(출처: Forrester Consulting via Workday)

근로자로부터 잠재적 위험에 직면하는 것은 고용주뿐만이 아닙니다. Workday가 의뢰한 2023년 연구에 따르면 직원의 XNUMX분의 XNUMX가 직장에서 AI를 사용하는 것에 대해 우려하고 있습니다. 자신의 데이터를 위험에 빠뜨릴 수 있습니다.

10. 미국인의 62%가 채용 결정에 AI가 사용되는 것을 우려한다.

(출처: Ipos Consumer Tracker, ISE, Workable)

직원들이 직장에 들어가기 전에, 채용 결정에 있어서 AI 우려가 커지고 있습니다.

Ipos에 따르면, 미국인의 62의 % AI가 취업 지원자의 합격을 결정하는 데 사용될 것이라고 믿습니다.

ISE는 이러한 두려움을 뒷받침합니다. 고용주의 28%가 채용 프로세스에 AI를 사용합니다..

또한 3,211년 전문가 2023명을 대상으로 한 조사에서도 유사한 수치가 나왔습니다. 950명(29.5%)이 채용에 AI를 활용한다고 인정.

11. 미국인들은 법 집행 분야의 AI에 대해 가장 우려하고 있습니다.

(출처: Ipos Consumer Tracker)

설문 조사에 참여한 미국인의 67%는 AI가 경찰과 법 집행에 오용될 것을 우려합니다. 그 다음으로는 AI 채용에 대한 두려움이 뒤따릅니다. “AI 적용에 대한 연방 감독이 너무 부족함”(59%).

AI가 예술적 스타일이나 영상 콘텐츠 등 기존 정보에만 의존할 수 있다면, 원래의 제작자와 저작권 소유자는 어떻게 될까요?

(출처: 책과 작가)

2023년 조사에서는 9명 중 10명의 예술가는 저작권법이 시대에 뒤떨어져 있다고 말한다 AI의 경우.

더욱이, 74.3%는 AI 학습을 위해 인터넷 콘텐츠를 스크래핑하는 것은 비윤리적이라고 생각합니다..

연간 수입의 32.5%가 미술품 판매 및 서비스에서 발생하는 54.6%는 AI가 자신의 소득에 영향을 미칠 것을 우려하고 있습니다..

(출처: Data Privacy and Security Insider)

시각 예술가 Sarah Andersen, Kelly McKernan 및 Karla Ortiz는 현재 법적 싸움을 벌이고 있습니다. 중간 여행, 안정된 확산, 다른 사람의 사이에서.

한 판사는 AI 모델이 저작권이 있는 자료를 침해하는 방식으로 작동할 가능성이 있다고 판결했으며, 이에 따라 원고들의 청구가 진행될 수 있다고 밝혔습니다.

14. Getty Images는 Stability AI가 12만 개의 이미지를 불법으로 복사했다고 주장합니다.

(출처: 로이터)

개별 예술가부터 사진 거장까지, Getty Images 역시 Stable Diffusion을 추구합니다.

2023년에 스톡 사진 제공업체는 다음과 같은 소송을 제기했습니다. Stability AI는 생성 AI 모델을 훈련하기 위해 12만 장의 사진을 복사했습니다..

게티는 유료로 사진에 대한 라이선스를 제공하지만, 10억 달러 이상의 가치가 있는 AI 거대 기업은 이에 대한 비용을 지불하지 않았습니다.

이러한 사례의 결과는 방식에 엄청난 변화를 가져올 수 있습니다. AI 예술 그리고 사진 생성기가 작동합니다.

(출처: 휴스턴 로 리뷰)

AI 저작권 침해 문제를 해결하기 위해 Matthew Sag는 다음과 같은 일련의 제안을 했습니다. 10 모범 사례.

여기에는 특정 세부 사항보다는 추상화를 학습하기 위한 프로그래밍 모델이 포함됩니다. 기존 작품과 너무 유사한 콘텐츠 필터링. 또한, 저작권이 있는 자료와 관련된 교육 데이터의 기록도 보관해야 합니다.

사기 및 범죄 AI 오용 통계

캣피싱에서 몸값 요구까지, 사기꾼과 범죄자들은 ​​점점 더 무서운 방식으로 AI를 오용합니다. 이러한 통계와 사실은 점점 더 정교해지는 범죄의 미래를 그려냅니다.

16. 25%의 사람들이 AI 음성 복제 사기를 경험했습니다.

(출처: McAfee)

사이버 범죄자들은 ​​AI를 사용하여 사람들의 목소리를 복제한 다음 전화 사기에 사용할 수 있습니다. 7,000년 2023명을 대상으로 한 설문 조사에서 XNUMX명 중 XNUMX명이 음성 사기를 직접 경험했거나 그런 사람을 알고 있다고 답했습니다. 있다.

더욱 우려스러운 점은 설문 대상자의 70%가 그 차이를 구별할 수 있을지 자신이 없다고 답했다는 것입니다.

17. AI 음성 복제 사기로 500달러에서 15,000달러 사이의 돈이 도난당합니다.

(출처: McAfee)

피해자의 77%가 돈을 잃었다 그리고 성공적인 AI 음성 복제 사기는 소액의 돈을 노리지 않습니다.

조사에서는 다음과 같이 언급합니다. 목표 대상자의 36%가 500~3,000달러를 잃었습니다.약 7%는 5,000달러에서 15,000달러 사이의 금액을 사기당했습니다.

18. 사이버보안 리더의 61%가 AI가 작성한 피싱 이메일에 대해 우려하고 있습니다.

(출처: Egress)

범죄자들이 오용하는 것은 현대적이고 정교한 음성 복제뿐만이 아닙니다. 전통적인 피싱 이메일도 점점 더 우려되는 문제입니다.

2024년에 사이버 보안 리더의 61%가 피싱에 챗봇을 사용하면 밤에 잠을 이루지 못한다고 말합니다.이는 AI가 정확하고 빠르기 때문일 수 있습니다.

더욱이, 52%는 AI가 공급망 손상에 유익할 수 있다고 생각합니다.그리고 47%는 이것이 계정 인수에 도움이 될 수 있다고 우려했습니다.

19. AI는 사기꾼이 더 설득력 있게 행동하도록 도울 수 있습니다.

(출처: Which)

우리는 부유한 왕자가 더 큰 이체를 차단 해제하는 데 도움이 되는 돈을 보내면 소액의 재산을 주겠다고 제안하는 고정관념적인 이메일 사기를 모두 보았습니다. 문법적 오류와 불일치이런 사기성 메일은 이제 대개 스팸 폴더로 들어갑니다.

그러나, AI 챗봇은 영어가 아닌 사기 메시지를 정리할 수 있습니다. 더 설득력 있게 보이려면.

이는 그들의 조건에 위배됨에도 불구하고 합법적인 것처럼 보이는 메시지를 생성할 수 있었습니다. ChatGPT와 Bard를 사용하여 PayPal 및 배달 서비스로 위장.

20. 78%의 사람들이 AI가 작성한 피싱 이메일을 엽니다.

(출처: 소세이프)

AI가 설득력 있는 사기 수법을 만드는 데 얼마나 효과적인지 더욱 입증하기 위해 한 연구에 따르면 수신자는 AI가 작성한 피싱 이메일의 약 80%를 열었습니다.

실제로 연구에서는 인간이 작성한 사기에서도 유사한 결과가 발견되었지만, AI가 생성한 이메일의 상호작용률이 더 높은 경우가 있습니다..

거의 3분의 2의 개인이 개인 정보를 누설하도록 속았습니다. 악성 링크를 클릭한 후 온라인 양식에서.

21. AI를 사용하면 피싱 이메일 작성 속도가 40% 더 빨라집니다.

(출처: 소세이프)

연구에 따르면 AI는 사기를 더욱 설득력 있게 보이게 만들 뿐만 아니라, 사기를 더 빨리 만들어낼 수도 있다고 합니다.

피싱 이메일은 AI를 사용하면 40% 더 빠르게 처리됩니다. 즉, 숫자 게임에서는 사이버 범죄자들은 ​​더 성공할 것이다 그리고 운영을 확장할 수 있습니다.

22. ChatGPT가 출시된 이후 피싱 이메일이 1,256% 증가했습니다.

(출처: SlashNext)

상관관계가 반드시 인과관계를 의미하는 것은 아니지만 AI와 피싱은 서로 밀접하게 관련되어 있습니다. ChatGPT가 출시된 이후로 엄청난 피싱 이메일 발송 건수 1,265% 증가.

23. 사이버 범죄자들은 ​​WormGPT와 FraudGPT와 같은 자체 AI 도구를 사용합니다.

(출처: SlashNext – WormGPT, KrebOnSecurity)

ChatGPT와 같은 공개 AI 도구는 다음과 같은 위치에 있습니다. 사이버 범죄 그러나 제한을 피하기 위해 범죄자들은 ​​WormGPT와 FraudGPT와 같은 자체 도구를 개발했습니다.

증거가 암시한다. WormGPT는 비즈니스 이메일 침해 공격에 연루되어 있습니다. (BEC). 또한 악성 코드를 작성할 수도 있습니다. 악성 코드.

WormGPT는 채널을 통해 플랫폼에 대한 액세스를 판매합니다. 암호화된 Telegram 메시징 앱.

24. 다크웹에는 200개 이상의 AI 해킹 서비스가 있습니다.

(출처: WSJ를 통한 인디애나 대학교)

다른 많은 악의적인 대규모 언어 모델 존재합니다. 인디애나 대학의 연구에 따르면 다크웹에서 판매되고 무료로 제공되는 이런 종류의 서비스가 200개 이상 발견되었습니다.

이런 종류의 최초 사례는 ChatGPT가 2022년에 출시된 지 불과 몇 달 후에 등장했습니다.

일반적인 해킹 방법 중 하나는 다음과 같습니다. 즉각적인 주사이는 인기 있는 AI 챗봇의 제한을 우회합니다.

25. AI는 수천 건의 악성 AI 이메일을 감지했습니다.

(출처: WSJ)

아이러니한 좋은 소식이 있습니다. Abnormal Security와 같은 회사는 AI를 사용하여 어떤 악성 이메일이 AI에서 생성되었는지 감지하고 있습니다. 2023년 이후로 수천 개를 감지했다고 주장합니다. 개인화된 이메일 공격을 2배 더 많이 차단 같은 기간에.

26. 인도인의 39%가 온라인 데이트 상대가 사기꾼이라는 사실을 발견했습니다.

(출처: McAfee – 인도)

사이버 범죄자들은 ​​희생자를 찾는 한 가지 방법으로 로맨스를 사용하며 최근 인도에서 실시된 연구에서는 거의 온라인 데이트 상호작용의 40%가 사기꾼과 관련이 있습니다..

연구 결과에 따르면, 일반적인 가짜 프로필 사진부터 AI가 생성한 사진과 메시지까지, 연애 사기꾼이 데이트 앱과 소셜 미디어 앱에서 만연해 있는 것으로 나타났습니다.

27. 설문 조사에 참여한 인도인의 77%가 AI가 생성한 프로필과 상호 작용한 적이 있다고 생각합니다.

(출처: McAfee – 인도)

이 어플리케이션에는 XNUMXµm 및 XNUMXµm 파장에서 최대 XNUMXW의 평균 출력을 제공하는 7,000명을 대상으로 한 연구 인도인의 77%가 가짜를 접한 적이 있다고 밝혔습니다. AI 데이트 프로필과 사진.

또한, 잠재적인 연애 상대에게 응답한 사람들 중, 26%는 이를 일종의 AI 봇으로 발견했습니다..

그러나 연구에 따르면 AI를 이용한 낚시 예술을 받아들이는 문화도 있는 것으로 나타났습니다.

28. 80%가 넘는 인도인들은 AI가 생성한 콘텐츠가 더 나은 반응을 얻는다고 믿습니다.

(출처: McAfee – India, Oliver Wyman Forum)

같은 조사에 따르면, 많은 인도인이 온라인 데이트 분야에서 자신의 매력을 높이기 위해 AI를 활용하고 있지만, 반드시 사기를 치기 위한 것은 아닌 것으로 나타났습니다.

인도인의 65%가 데이트 앱에서 사진과 메시지를 만들거나 증강하기 위해 생성 AI를 사용했습니다..

작동 중입니다. 81%는 AI가 생성한 메시지가 자연스러운 메시지보다 더 많은 참여를 이끌어낸다고 답했습니다..

사실, 56%는 2024년 발렌타인데이에 연인에게 더 나은 메시지를 전달하기 위해 채팅봇을 사용할 계획이라고 밝혔습니다..

실제로 다른 연구에서는 다음과 같이 제안합니다. 28%의 사람들은 AI가 실제 인간의 감정의 깊이를 포착할 수 있다고 믿습니다..

그러나 인도인들은 주목합니다. 60%가 자신이 다음과 같은 것을 받았다고 말했습니다. AI 메시지 발렌타인 데이에 연인이 이런 말을 하면 상처받고 기분 나빠할 것이다.

29. 한 '틴더 사기꾼'은 여성 피해자들로부터 약 10만 달러를 사기했습니다.

(출처: 포춘)

가장 유명한 데이트 사기꾼 중 한 명은 시몬 하유트였습니다. 그는 가명 사이먼 레비에프(Simon Leviev)로 앱, 조작된 미디어 및 기타 속임수를 사용하여 여성들에게서 10만 달러를 사기했습니다.

하지만 인기 있는 Netflix 다큐멘터리 Tinder Swindler에 등장한 후 상황이 바뀌었습니다. 그는 소셜 미디어에서 7,000달러를 사기당함 2022 인치

보도에 따르면, 누군가 인스타그램에서 메타와 관련된 커플로 가장했다고 합니다. 그들은 그에게 오래된 PayPal을 통해 돈을 이체하도록 했습니다.

AI 가짜 뉴스와 딥페이크

가짜 뉴스와 온라인의 잘못된 정보는 새로운 것이 아닙니다. 하지만 AI의 힘으로 인해 퍼지기가 더 쉬워지고 진짜, 거짓, 딥페이크 콘텐츠를 구별하기 어려워지고 있습니다.

30. 딥페이크는 10년에 2023배 증가했습니다.

(출처: Sumsub)

AI 기술이 주류로 부상하면서 딥페이크도 부상했습니다. 데이터에 따르면 10년에 감지된 딥페이크의 수는 2023배 증가했으며 올해만 증가하고 있습니다.

산업을 기준으로, 암호화폐 관련 딥페이크가 모든 탐지의 88%를 차지.

지역별로 보면 북미는 딥페이크 사기 1,740% 증가.

31. AI가 생성한 가짜 뉴스 게시물이 한 달 만에 1,000% 증가했습니다.

(출처: 워싱턴 포스트를 통한 NewsGuard)

팩트 확인 기관 NewsGuard에 따르면, 2023년 1,000월 한 달 동안 가짜 뉴스 기사의 수가 XNUMX% 증가했습니다.

연구에서는 또한 다음 사실을 발견했습니다. AI 기반 허위 정보 웹사이트가 49개에서 600개로 급증했습니다. 동일 기간 동안의 기준에 따라.

재정적 또는 정치적 동기에 따라 AI는 이제 소셜 미디어에서 널리 공유되는 가짜 이야기의 최전선에 서 있습니다.

32. 캐나다는 AI 가짜뉴스에 대해 가장 우려하고 있습니다.

(출처 : 출처: Ipos Global Advisor)

21,816개국 29명의 시민을 대상으로 한 조사에서 캐나다인의 65%는 AI가 가짜 뉴스를 더 악화시킬 것이라고 우려했습니다..

미국인들은 56%로 약간 덜 걱정했습니다.. 한 가지 이유는 캐나다에서 지역 뉴스 매체의 수가 감소하여 사람들이 덜 알려진 정보 출처를 찾게 되었다는 것입니다.

33. 74%는 AI가 현실적인 가짜 뉴스와 이미지를 더 쉽게 생성할 수 있게 해줄 것이라고 생각합니다.

(출처 : 출처: Ipos Global Advisor)

각국에서 설문 조사에 참여한 모든 시민 중 74%는 AI가 진짜와 가짜 뉴스, 이미지와 진짜를 구별하기 어렵게 만들고 있다고 느꼈습니다.

인도네시아인의 89%가 자신이 가장 강하다고 느꼈습니다. 반면, 독일인(64%)은 이 문제에 대해 가장 우려하지 않는 것으로 나타났습니다.

34. 56%의 사람들은 이미지가 실제 이미지인지 AI가 생성한 이미지인지 구별할 수 없습니다.

(출처: Oliver Wyman 포럼)

연구 제안 절반 이상의 사람들이 AI가 생성한 가짜 이미지를 구별할 수 없습니다. 그리고 진짜 것들.

35. AI 이미지가 20년 3분기 Facebook에서 가장 많이 본 게시물 상위 2023개에 포함되었습니다.

(출처: Misinfo Review)

우리가 믿든 믿지 않든, AI 이미지는 어디에나 있습니다. 2023년 XNUMX분기에 한 AI 이미지는 40만 뷰와 1.9만 건 이상의 참여를 얻었습니다.이로써 이 게시물은 해당 기간 동안 가장 많이 조회된 게시물 상위 20위에 들었습니다.

36. 평균 146,681명이 AI 이미지가 가득한 125개 Facebook 페이지를 팔로우합니다.

(출처: Misinfo Review)

평균 146명이 팔로우했습니다. 각각 최소 125개의 AI 생성 이미지를 게시한 50개의 Facebook 페이지 3년 2023분기 중.

연구자들은 이를 스패머, 사기꾼, 참여 농장으로 분류했듯이, 이는 무해한 예술에 불과하지 않았습니다.

전체적으로, 이미지는 수억 번 조회되었습니다. 그리고 이것은 Facebook의 그러한 페이지 중 아주 작은 일부에 불과합니다.

37. 소비자의 60%가 작년에 딥페이크 영상을 본 적이 있습니다.

(출처: 주미오)

8,000명이 넘는 성인 소비자를 대상으로 한 조사에 따르면, 60%가 작년에 딥페이크 콘텐츠를 접했습니다. 22%는 확신이 없었다, 오직 15%는 딥페이크를 본 적이 없다고 답했다.

물론, 품질에 따라서는 본 적이 있는지 없는지조차 모를 수도 있습니다.

38. 75%는 딥페이크가 선거에 영향을 미칠 수 있다고 우려합니다.

(출처: 주미오)

딥페이크가 선거에 영향을 미칠까 봐 두려워

미국에서는, 응답자의 72%는 AI 딥페이크가 다가올 선거에 영향을 미칠 수 있다고 우려했습니다..

가장 큰 우려는 싱가포르와 멕시코에서 나온다(각각 83%), 영국은 선거 간섭에 대해 덜 걱정하는 반면 60%.

그럼에도 불구하고 영국 응답자들은 정치인의 딥페이크를 알아차리는 능력이 가장 부족하다고 느꼈습니다.33%).

싱가포르는 가장 자신감이 있었습니다. 60%이는 두려움이 딥페이크에 대한 개인의 인식과 상관관계가 있음을 시사합니다.

39. 정치적 딥페이크가 가장 흔합니다.

(출처: DeepMind)

가장 흔한 오용 AI 딥페이크 DeepMind와 Google Jigsaw의 연구에 따르면 정치 분야에 속합니다.

더 정확하게, 27% 보고된 모든 사례 중 시도된 대중의 정치적 현실 인식을 왜곡합니다.

정치적 AI 오용

이 어플리케이션에는 XNUMXµm 및 XNUMXµm 파장에서 최대 XNUMXW의 평균 출력을 제공하는 상위 3개 전략 허위 정보 유포, 이미지 조작, 명예 훼손 등이 있습니다.

여론 조작, 수익화 및 이익 외에 사기 및 사기가 두 번째였습니다. 딥페이크의 세 번째로 흔한 목표.

40. 학생 중 38%만이 AI 콘텐츠를 발견하는 방법을 배웠습니다.

(출처: 민주주의와 기술 센터)

교육은 딥페이크의 영향을 해결하는 한 가지 방법이지만 학교는 실패하고 있을 수 있습니다. 영국 학교 학생의 38% AI가 생성한 이미지, 텍스트, 비디오를 식별하는 방법을 배웠다고 합니다.

한편, 학생 중 71%가 교육자로부터 지도를 원한다는 의사를 표명했습니다..

성인, 범죄 및 부적절한 AI 콘텐츠

성인 산업은 항상 기술의 최전선에 있었고 AI는 그 다음 단계일 뿐입니다. 하지만 사용자가 진짜라고 생각하는 콘텐츠에 돈을 지불하면 어떻게 될까요? 아니면 더 나쁜 경우, 사람들이 동의 없이 다른 사람을 딥페이크하는 걸까요?

41. 143,000년에는 2023개가 넘는 NSFW 딥페이크 영상이 업로드되었습니다.

(출처: The Guardian을 통한 채널 4 뉴스)

성인 스타의 몸에 유명인의 얼굴을 합성한 조잡한 가짜 이미지는 수십 년 동안 있었지만, AI의 등장으로 이러한 이미지의 품질과 인기가 높아졌고 비디오도 등장했습니다.

2022/2023년 AI 기술이 급속히 발전함에 따라 143,733년 1~3분기 동안 2024개의 새로운 딥페이크 영상이 웹에 등장했습니다..

42. NSFW 딥페이크에 대한 검색은 5,800년 이후 2019% 증가했습니다.

(출처: SEMRush via Law News)

상승의 예 성인 딥페이크 검색 엔진 볼륨을 모니터링하여 찾을 수 있습니다. SEMRush를 사용한 분석에 따르면 이 맥락에서 용어는 58년 이후 2019배 증가.

43. 4,000명의 유명인이 NSFW 딥페이크의 희생자가 되었습니다.

(출처: The Guardian을 통한 채널 4 뉴스)

가장 인기 있는 성인용 딥페이크 웹사이트에 대한 조사 결과, 약 4,000명의 유명인과 비슷한 모습이 노골적인 이미지와 비디오로 생성되었습니다.

5개 사이트가 100억 뷰 이상 조회 2023년 XNUMX개월 동안.

현재 많은 국가에서는 이러한 콘텐츠를 불법으로 만드는 법안을 제안하고 있습니다.

44. 딥페이크 이미지의 96%는 성인 콘텐츠입니다.

(출처: Deeptrace)

2019년 초만 해도 온라인에 게시된 딥페이크 영상의 96%가 성인용이었습니다. 100 %는 여성이었습니다. (대부분 유명인) 동의하지 않은 사람들.

반면에 누드가 금지된 YouTube에서는 딥페이크 영상의 61%는 남성이었습니다. 그리고 "해설 기반"입니다.

45. 테일러 스위프트의 딥페이크 영상은 2024년에 27만 뷰 이상을 기록하며 화제가 되었습니다.

(출처: NBC 뉴스)

2024년 XNUMX월 테일러 스위프트가 가장 많이 본 딥페이크 주제 언제 NSFW AI 이미지 그리고 영상은 주로 Twitter/X를 통해 온라인으로 퍼졌습니다.

19시간 만에 주요 콘텐츠 260,000만개 이상의 좋아요를 받았습니다플랫폼이 해당 자료를 삭제하고 그녀를 트렌드 알고리즘에서 일시적으로 차단하기 전이었습니다.

일부 딥페이크 영상에는 테일러 스위프트를 트럼프 지지자로 묘사하기도 했습니다.

46. ​​제나 오르테가는 영국에서 두 번째로 많이 검색된 딥페이크 연예인입니다.

(출처: SEMRush via Law News)

연예인 딥페이크 AI 오용 통계

영국 검색 데이터에 따르면, 테일러 스위프트에 이어 배우 제나 오르테가가 성인용 딥페이크 영상에서 가장 많이 검색된 유명인입니다.

그녀는 인플루언서 브룩 몽크와 동료 여배우 밀리 바비 브라운과 동점.

이 어플리케이션에는 XNUMXµm 및 XNUMXµm 파장에서 최대 XNUMXW의 평균 출력을 제공하는 상단 20 목록 가수 빌리 엘리시부터 스트리머 포키메인까지 다양한 사람들이 모여 있지만 모두 여성입니다.

47. 가짜 AI 모델은 OnlyFans 플랫폼에서 매달 수천 달러를 벌어들인다.

(출처: 슈퍼크리에이터, 포브스)

OnlyFans와 비슷한 플랫폼은 성인용 콘텐츠를 제공하는 것으로 유명했지만 이제 AI 덕분에 실제 사람들이 카메라 앞에서 몸을 드러내지 않아도 됩니다.

TheRRRealist 및 Aitana López와 같은 페르소나 한 달에 수천 달러를 벌어요.

전자가 가짜임을 공개적으로 밝힌 반면, 후자는 좀 더 수줍어했습니다. 윤리적 질문을 열다그리고 그들은 유일한 사람이 아닙니다.

조차 AI 영향력자 올리비아 C(2인 팀)와 같이 성인 분야 밖에서는 추천 및 광고로 생계를 유지합니다.

48. 1,500명의 AI 모델이 미인 대회에 참가했습니다.

(출처: 유선)

World AI Creator Awards(WAICA)는 이번 여름에 AI 인플루언서 플랫폼 Fanvue를 통해 시작되었습니다. 한 측면은 AI 미인 대회로, Kenza Layli(또는 그녀의 익명 크리에이터)가 우승했습니다. $10,000.

1,500개가 넘는 AI 창작물과 정교한 배경 스토리, 라이프스타일이 콘테스트에 참가했습니다. 모로코의 켄자 페르소나는 여성에게 힘을 실어주고 다양성을 증진한다는 긍정적인 메시지를 담고 있었지만, 딥페이크 오용이 항상 그렇게 "고양"되는 것은 아닙니다.

49. 6,000명이 교사와 학생을 표적으로 삼은 광범위한 딥페이크 스캔들에 항의했습니다.

(출처: BBC, 가디언, 코리아타임스, CNN)

2024년 한국에서 일련의 학교 딥페이크 스캔들이 발생했는데, 수십만 명의 Telegram 사용자 여성 교사와 학생들의 NSFW 딥페이크 영상을 공유하고 있었습니다.

60명 이상의 피해자가 확인되었습니다., AI 이미지가 대중 소셜 미디어에 퍼졌습니다.

이로 인해 6,000명이 시위를 벌였다 서울에서 그리고 결국, 800건의 범죄 기록에 따르면, 몇몇 사건은 유죄 판결을 받고 새로운 법률이 통과되는 데 이르렀습니다.

그들은 주변에 연루되었다 200개 학교, 대부분의 피해자와 가해자가 10대입니다.

매달 50만 명이 여성과 어린이를 대상으로 딥페이크 '누드화' 앱을 사용합니다.

(출처: Wired – Nudify)

유명인뿐만 아니라, 딥페이크 AI의 오용은 훨씬 더 어두운 의미를 갖습니다.

2020년 여성과 어린이의 사진을 '옷을 벗기는' AI 기반 앱에 대한 조사에서 Telegram에 50개의 봇이 있습니다 다양한 정교함으로 딥페이크를 만드는 데 있어서. 단 두 명만이 400,000 명 이상의 사용자.

51. 한 달 동안 단일 다크 웹 포럼에 20,000개가 넘는 AI가 생성한 CSAM이 게시되었습니다.

(출처: IWF)

아마도 가장 충격적인 AI 오용 통계는 보호 기관의 2023년 보고서에서 나온 것일 것입니다. 조사관들은 다크 웹의 한 포럼에만 한 달 동안 게시된 수만 건의 AI 생성 CSAM을 발견했습니다.

보고서는 2024년에 이런 현상이 증가했으며, 이러한 AI 이미지도 일반 웹에서 증가했다고 언급했습니다.

이런 성격의 만화, 그림, 애니메이션 및 가짜 사진은 영국에서 불법입니다.

마무리

많은 분야에서 AI가 도입되었음에도 불구하고, 여전히 서부 개척 시대와 같습니다. 사회는 무엇을 적절하다고 생각하며, 규제가 더 많아야 할까요?

학생들의 과제 생성이나 직장에서의 위험한 활용부터 현실적인 사기와 불법적인 딥페이크까지, AI는 우려스러운 적용 분야가 많습니다.

AI 오용 통계에서 보듯이, 우리는 이 기술이 어디로 나아가야 할지 다시 생각해 볼 때가 되었을지도 모릅니다.

오용이 걱정되시나요? 아래 댓글에 알려주세요!

출처 :

1. Turnitin

2. 타이튼 파트너스

3. Center for Democracy & Technology

4. 올리버 와이먼 포럼

5. CNN 월드

6. Workday를 통한 Forrester Consulting

7. Ipos 소비자 추적기

8. ISE

9. 작동 가능

10. 책과 예술가

11. 데이터 프라이버시 및 보안 Insider

12. 로이터

13. 휴스턴 로 리뷰

14. 맥아피

15. 출구

16. 소세이프

17. 슬래시 다음

18. SlashNext – WormGPT

19. 크렙온시큐리티

20. 산업WSJ를 통한 아나 대학교

21. WSJ

22. McAfee – 인도

23.

24. 섬섭

25. 워싱턴 포스트를 통한 NewsGuard

26. Ipsos 글로벌 어드바이저

27. 잘못된 정보 검토

28. 주 미오

29. Deepmind

30. Center for Democracy & Technology

31. 채널 4 뉴스, The Guardian 제공

32. 딥 트레이스

33. NBC 뉴스

34. NBC 뉴스 2

35. SEMRush via Law News

36. 슈퍼크리에이터

37. 포브스

38. 유선

39. BBC

40. 가디언

41. BBC 2

42. 한국 일보

43. 현지 시간

44. 와이어드 - 누디파이

45. IWF

사용자 포럼

1 메시지