Statistiques sur l'utilisation abusive de l'IA : plus de 50 statistiques et faits inquiétants
19 minute. lis
Mis à jour le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale Je découvre le livre blanc
Ces statistiques révélatrices sur l’utilisation abusive de l’IA vous montreront que toutes les applications de l’IA ne sont pas positives.
L'intelligence artificielle fait désormais partie intégrante de notre vie quotidienne. De la recherche médicale aux outils d'apprentissage des étudiants, elle rationalise déjà les industries dans tous les domaines. Examinons quelques-uns de ses inconvénients.
Les statistiques les plus choquantes sur les abus de l'IA
Qu'il s'agisse de tricherie, de violation du droit d'auteur, d'ingérence dans la politique ou du pire type de deepfakes, l'ampleur et l'étendue des abus de l'IA vous choqueront :
- En 1, 10 devoir étudiant sur 2023 contenait du contenu généré par l'IA.
- 84 % des travailleurs pourraient avoir exposé les données de l’entreprise en utilisant l’IA.
- 90 % des artistes estiment que la loi sur le droit d’auteur est insuffisante pour l’IA.
- 78 % des gens ouvrent les e-mails de phishing rédigés par l’IA.
- Les e-mails de phishing ont augmenté de 1,256 XNUMX % depuis ChatGPT lancé.
- 75 % craignent que les deepfakes puissent influencer les élections.
- Les recherches de deepfakes NSFW ont augmenté de 5,800 2019 % depuis XNUMX.
- 4 millions de personnes par mois utilisent les applications deepfake « Nudify ».
Utilisation abusive des statistiques de l'IA par les étudiants
L'IA dans l'éducation Il a de nombreuses applications légitimes, mais il serait insensé de penser que les étudiants ne l'utilisent pas pour faire le travail à leur place.
1. 1 devoir étudiant sur 10 contenait du contenu généré par l'IA en 2023.
(Source : Turnitin)
Au cours de l'année qui s'est écoulée depuis que le détecteur de plagiat Turnitin, axé sur l'éducation, a lancé son détecteur d'IA, environ 1 affectation sur 10 dans l'enseignement supérieur contenu contenu généré par l'IA des outils comme ChatGPT.
De plus, sur les 200 millions d’articles analysés, plus de 6 millions ont été générés à au moins 80 % par l'IA.
2. Près de 50 % des étudiants interrogés ont admis utiliser l’IA sous une forme ou une autre dans le cadre de leurs études.
(Source : Tyton Partners)
Un article de 2023 a révélé que près de la moitié des étudiants utilisaient l'IA et 12% par jour.
C'est encore plus inquiétant que 75 % déclarent qu'ils continueront à utiliser l'IA même si les institutions l'interdisent.
3. Les étudiants et les professeurs sont divisés à 50/50 sur les avantages et les inconvénients de l’IA.
(Source : Tyton Partners)
La même étude a révélé qu'environ la moitié des étudiants et des professeurs estimaient que l'IA aurait un impact positif ou négatif sur l'éducation au printemps. Une division définitive entre les avantages et les inconvénients.
Il est intéressant de noter qu’à l’automne, 61 % des professeurs sont désormais favorables à l'intégration de l'IA, tandis que 39 % la considéraient toujours comme négative. Cela démontre un changement progressif d'opinion.
4 % des enseignants du collège et du lycée ont utilisé des outils de détection d’IA.
(Source : Centre pour la démocratie et la technologie)
Dans une étude de 2024, la majorité des enseignants du niveau scolaire ont déclaré avoir utilisé la détection par IA, une augmentation par rapport à l'année précédente.
De plus, près des deux tiers des étudiants ont déclaré avoir subi des conséquences pour avoir prétendument utilisé IA générative dans leurs devoirs. Ce chiffre est en hausse par rapport aux 48 % de l'année scolaire 2022-2023.
Il semble que l’IA soit désormais pleinement intégrée dans les collèges, lycées et l’enseignement supérieur.
Statistiques sur l'utilisation abusive de l'IA au travail
L'IA se développe Dans tous les secteurs d'activité. Les étudiants ne sont pas les seuls à faire des économies. Le taux de travailleurs qui craignent l'IA ou l'utilisent de manière risquée est intéressant.
5. Plus de la moitié des travailleurs utilisent l’IA chaque semaine.
(Source : Oliver Wyman Forum)
D’après une étude menée auprès de plus de 15,000 16 travailleurs dans XNUMX pays, plus de 50 % déclarent utiliser l'IA chaque semaine pour le travail.
6 % des travailleurs pourraient avoir exposé les données de l’entreprise en utilisant l’IA.
(Source : Oliver Wyman Forum)
D'après la même étude, 84 % de ceux qui utilisent l'IA admettent que cela aurait pu exposer les données exclusives de leur entrepriseCela pose de nouveaux risques en matière de sécurité des données.
7. Malgré les inquiétudes, 41 % des employés interrogés utiliseraient l’IA dans le secteur financier.
(Source : Oliver Wyman Forum, CNN World)
Le risque s’étend également aux finances. Bien que 61 % des employés interrogés soient préoccupés par la fiabilité des résultats de l’IA, 40 % d’entre eux l’utiliseraient encore pour prendre des « décisions financières importantes ».
30% je partagerais même davantage de données personnelles si cela signifiait de meilleurs résultats.
Ce n'est peut-être pas si sage, après qu'un employé de la finance à Hong Kong ait été dupé en transférant 25 millions de dollarsDes cybercriminels ont usurpé l'identité du directeur financier de l'entreprise lors d'une vidéoconférence.
8 % des travailleurs ont constaté des résultats d’IA inexacts.
(Source : Oliver Wyman Forum)
Les inquiétudes concernant la fiabilité sont justifiées, car près 40 % des employés américains déclarent avoir constaté « des erreurs commises par l’IA alors qu’elle était utilisée au travail ». Ce qui est peut-être le plus préoccupant, c’est le nombre d’employés qui ont agi sur la base de fausses informations.
Il est intéressant de noter que le pourcentage le plus élevé d’employés reconnaissant les informations d’IA inexactes est 55% en IndeIls sont suivis par 54 % à Singapour et 53 % en Chine.
À l’autre bout de l’échelle, 31 % des salariés allemands ont constaté des erreurs.
9 % des employés craignent une utilisation abusive de leurs données personnelles.
(Source : Forrester Consulting via Workday)
Les employeurs ne sont pas les seuls à être exposés à des risques potentiels liés aux employés. Une étude de 2023 commandée par Workday suggère que deux tiers des employés craignent que l'utilisation de l'IA sur le lieu de travail ne soit une menace pour leur entreprise. pourraient mettre leurs propres données en danger.
10. 62 % des Américains craignent l’utilisation de l’IA dans les décisions d’embauche.
(Source : Ipos Consumer Tracker, ISE, Workable)
Avant même que les employés n’intègrent le marché du travail, L'IA dans les décisions d'embauche est une préoccupation croissante.
Selon Ipos, 62% des Américains Je crois que l’IA sera utilisée pour décider des candidats retenus.
L'ISE soutient cette crainte, car elle a constaté 28 % des employeurs font appel à l'IA dans le processus de recrutement.
De plus, une enquête menée auprès de 3,211 2023 professionnels en XNUMX est arrivée à un chiffre similaire, avec 950 (29.5 %) admettent utiliser l'IA dans le recrutement.
11. Les Américains sont particulièrement préoccupés par l’IA dans le domaine de l’application de la loi.
(Source : Ipos Consumer Tracker)
67 % des Américains interrogés craignent que l'IA soit utilisée à mauvais escient par la police et les forces de l'ordre. Viennent ensuite les craintes de recrutement et d'utilisation de l'IA par les forces de l'ordre. « Trop peu de surveillance fédérale dans l’application de l’IA » (59 %).
Statistiques sur l'utilisation abusive de l'IA en matière de droits d'auteur
Si l’IA ne peut s’appuyer que sur des informations existantes, telles que les styles artistiques ou le contenu vidéo, où cela laisse-t-il le créateur original et le titulaire des droits d’auteur ?
12. 90 % des artistes estiment que la législation sur le droit d’auteur est insuffisante pour l’IA.
(Source : Livre et Artiste)
Dans une enquête de 2023, 9 artistes sur 10 estiment que les lois sur le droit d'auteur sont obsolètes quand il s'agit d'IA.
Les inspections régulières contribuent également à la sécurité des passagers. En identifiant et en traitant les risques potentiels pour la sécurité, tels que des freins usés, un éclairage défectueux ou le remplacement du revêtement de sol, les inspections permettent de réduire le risque d'accidents et de blessures et d'améliorer la sécurité générale du service. Les inspections régulières sont un moyen concret de mettre en valeur l'engagement des prestataires de services de transport en faveur du bien-être des passagers et des conducteurs. 74.3 % pensent que le scraping de contenu Internet pour l'apprentissage de l'IA est contraire à l'éthique.
Avec 32.5 % de leurs revenus annuels provenant des ventes d’art et des services, 54.6 % craignent que l'IA ait un impact sur leurs revenus.
13. Un recours collectif en cours allègue une violation du droit d'auteur contre des artistes.
(Source : Confidentialité et sécurité des données Insider)
Les artistes visuels Sarah Andersen, Kelly McKernan et Karla Ortiz sont engagés dans une bataille juridique en cours contre À mi-parcours, diffusion stable, entre autres.
Un juge a statué que les modèles d'IA fonctionnent de manière plausible d'une manière qui porte atteinte au droit d'auteur, et la plainte des plaignants peut se poursuivre.
14. Getty Images affirme que Stability AI a copié illégalement 12 millions d'images.
(Source : Reuters)
Des artistes individuels aux géants de la photographie, Getty Images s'intéresse également à Stable Diffusion.
En 2023, le fournisseur de photos d'archives a intenté une action en justice alléguant Stability AI a copié 12 millions de ses photos pour former son modèle d'IA générative.
Getty octroie des licences pour ses photos moyennant des frais que le géant de l'IA, qui vaut plus d'un milliard de dollars, n'a jamais payés.
L’issue de telles affaires pourrait entraîner des changements massifs dans la manière dont Art de l'IA et les générateurs de photos fonctionnent.
15. Un ensemble de bonnes pratiques en matière de droit d’auteur en 10 étapes a été proposé.
(Source : Houston Law Review)
Pour s'attaquer au problème de la violation du droit d'auteur de l'IA, Matthew Sag a proposé un ensemble de mesures 10 bonnes pratiques.
Il s’agit notamment de modèles de programmation permettant d’apprendre des abstractions plutôt que des détails spécifiques et filtrer les contenus trop similaires aux œuvres existantesDe plus, les enregistrements des données de formation impliquant du matériel protégé par le droit d’auteur doivent être conservés.
Statistiques sur les escroqueries et les utilisations criminelles abusives de l'IA
Du catfishing aux demandes de rançon, les escrocs et les criminels utilisent l’IA de manière de plus en plus effrayante. Ces statistiques et faits dépeignent un avenir de sophistication criminelle toujours croissante :
16 % des personnes ont été victimes d'escroqueries liées au clonage de voix par IA.
(Source : McAfee)
Les cybercriminels peuvent utiliser l'IA pour cloner les voix des gens et les utiliser ensuite dans des escroqueries téléphoniques. Dans une enquête menée auprès de 7,000 2023 personnes en XNUMX, une personne sur quatre déclare avoir été victime d'une escroquerie vocale ou connaître d'autres personnes qui en ont été victimes. avons.
Plus inquiétant encore, 70 % des personnes interrogées déclarent ne pas être sûres de pouvoir faire la différence.
17. Les escroqueries de clonage de voix par IA volent entre 500 et 15,000 XNUMX dollars.
(Source : McAfee)
77 % de ces victimes ont perdu de l'argent et les escroqueries de clonage de voix d'IA réussies ne visent pas la petite monnaie.
L’enquête note que 36 % des cibles ont perdu entre 500 et 3,000 XNUMX dollarsEnviron 7 % d’entre eux ont été escroqués à hauteur de 5,000 15,000 à XNUMX XNUMX dollars.
18 % des responsables de la cybersécurité sont préoccupés par les e-mails de phishing rédigés par l'IA.
(Source : Egress)
Les criminels ne se contentent pas d'utiliser à mauvais escient des techniques modernes et élaborées de clonage vocal. Les e-mails de phishing traditionnels constituent également une préoccupation croissante.
En 2024, 61 % des responsables de la cybersécurité affirment que l'utilisation de chatbots dans le cadre du phishing les empêche de dormirCela peut être dû au fait que l’IA est précise et rapide.
Les inspections régulières contribuent également à la sécurité des passagers. En identifiant et en traitant les risques potentiels pour la sécurité, tels que des freins usés, un éclairage défectueux ou le remplacement du revêtement de sol, les inspections permettent de réduire le risque d'accidents et de blessures et d'améliorer la sécurité générale du service. Les inspections régulières sont un moyen concret de mettre en valeur l'engagement des prestataires de services de transport en faveur du bien-être des passagers et des conducteurs. 52 % pensent que l'IA pourrait être bénéfique dans les compromis de la chaîne d'approvisionnement, et 47 % craignent que cela puisse favoriser les prises de contrôle de comptes.
19. L’IA peut aider les escrocs à être plus convaincants.
(Source : Which)
Nous avons tous vu l'arnaque par courrier électronique stéréotypée d'un prince riche offrant une petite fortune si vous envoyez simplement de l'argent pour l'aider à débloquer un transfert plus important. erreurs grammaticales et incohérences, ces escroqueries sont désormais généralement enterrées dans le dossier spam.
Toutefois, Les chatbots IA sont capables de nettoyer les messages frauduleux non rédigés en anglais pour être plus convaincant.
Bien que cela soit contraire à leurs conditions, ils ont pu produire des messages d'apparence légitime se faisant passer pour PayPal et des services de livraison utilisant ChatGPT et Bard.
20 % des personnes ouvrent les e-mails de phishing rédigés par l'IA.
(Source : Sosafe)
Pour démontrer davantage l’efficacité de l’IA dans la production d’escroqueries convaincantes, une étude a révélé que les destinataires ont ouvert près de 80 % des e-mails de phishing rédigés par l’IA.
Bien que l’étude ait en fait trouvé des résultats similaires pour les escroqueries écrites par des humains, les taux d'interaction étaient parfois plus élevés pour les e-mails générés par l'IA.
Près de deux tiers des individus ont été trompés et ont divulgué des informations privées dans les formulaires en ligne après avoir cliqué sur des liens malveillants.
21. La création d'e-mails de phishing est 40 % plus rapide grâce à l'IA.
(Source : Sosafe)
Les recherches suggèrent également que la puissance de l’IA permet non seulement de rendre les escroqueries plus convaincantes, mais aussi de les produire plus rapidement.
Les e-mails de phishing sont créés 40 % plus rapidement grâce à l'IA, ce qui signifie qu'en termes de chiffres, les cybercriminels auront plus de succès et peuvent étendre leurs opérations.
22. Les e-mails de phishing ont augmenté de 1,256 XNUMX % depuis le lancement de ChatGPT.
(Source : SlashNext)
Bien que corrélation ne signifie pas nécessairement causalité, l'IA et le phishing vont de pair. Depuis le lancement de ChatGPT, il y a eu une augmentation stupéfiante Augmentation de 1,265 XNUMX % du nombre d'e-mails de phishing envoyés.
23. Les cybercriminels utilisent leurs propres outils d’IA comme WormGPT et FraudGPT.
(Source : SlashNext – WormGPT, KrebOnSecurity)
Les outils d'IA publics comme ChatGPT ont leur place dans le la cybercriminalité Cependant, pour contourner les restrictions, les criminels ont développé leurs propres outils comme WormGPT et FraudGPT.
Les preuves suggèrent WormGPT est impliqué dans des attaques de compromission de courrier électronique professionnel (BEC). Il peut également écrire du code malveillant pour malware.
WormGPT vend l'accès à sa plateforme via un canal sur le application de messagerie Telegram cryptée.
24. Plus de 200 services de piratage d’IA sont disponibles sur le Dark Web.
(Source : Université d'Indiana via le WSJ)
Beaucoup d'autres modèles de langage volumineux et malveillants Il existe. Des recherches menées par l'Université d'Indiana ont permis de découvrir plus de 200 services de ce type, disponibles à la vente ou gratuitement, sur le dark web.
Le premier du genre est apparu quelques mois seulement après la mise en ligne de ChatGPT en 2022.
Un hack courant s'appelle injection rapide, qui contourne les restrictions des chatbots IA populaires.
25. L'IA a détecté des milliers d'e-mails malveillants.
(Source : WSJ)
Dans une ironie de bonne nouvelle, des entreprises comme Abnormal Security utilisent l'IA pour détecter les e-mails malveillants générés par l'IA. Elle affirme en avoir détecté des milliers depuis 2023 et bloqué deux fois plus d'attaques par courrier électronique personnalisées dans la même période.
26 % des Indiens ont découvert que les personnes sur lesquelles les sites de rencontres en ligne étaient des escrocs.
(Source : McAfee – Inde)
Les cybercriminels utilisent la romance comme une source pour trouver des victimes et une étude récente en Inde a révélé que près de 40 % des interactions de rencontres en ligne impliquent des escrocs.
Des fausses photos de profil classiques aux photos et messages générés par l'IA, l'étude a révélé que les arnaqueurs amoureux sont monnaie courante sur les applications de rencontres et les réseaux sociaux.
27 % des Indiens interrogés pensent avoir interagi avec des profils générés par l'IA.
(Source : McAfee – Inde)
Votre étude sur 7,000 XNUMX personnes a révélé que 77 % des Indiens ont rencontré de faux Rencontres IA profils et photos.
De plus, parmi ceux qui ont répondu à des intérêts amoureux potentiels, 26 % ont découvert qu'il s'agissait d'une forme de robot IA.
Cependant, les recherches suggèrent qu’il existe une culture qui pourrait également adopter l’art du catfishing avec l’IA.
28. Plus de 80 % des Indiens estiment que le contenu généré par l’IA suscite de meilleures réponses.
(Source : McAfee – Inde, Oliver Wyman Forum)
La même étude a révélé que de nombreux Indiens utilisent l’IA pour renforcer leur propre attractivité dans le domaine des rencontres en ligne, mais pas nécessairement pour arnaquer.
65 % des Indiens ont utilisé l'IA générative pour créer ou améliorer des photos et des messages sur une application de rencontre.
Et ça marche. 81 % des personnes interrogées affirment que les messages générés par l'IA suscitent plus d'engagement que leurs propres messages naturels.
Ainsi, 56 % des personnes interrogées avaient prévu d'utiliser des chatbots pour rédiger de meilleurs messages pour leurs amoureux à l'occasion de la Saint-Valentin en 2024.
En effet, d’autres recherches suggèrent 28 % des personnes pensent que l’IA peut capturer la profondeur des émotions humaines réelles.
Cependant, les Indiens prennent note : 60 % ont déclaré que s'ils recevaient un Message de l'IA de la part d'un amoureux de la Saint-Valentin, ils se sentiraient blessés et offensés.
29. Un « escroc de Tinder » a escroqué environ 10 millions de dollars à ses victimes féminines.
(Source : Fortune)
L'un des escrocs les plus connus dans le domaine des rencontres amoureuses est Shimon Hayut. Sous le pseudonyme de Simon Leviev, il a escroqué des femmes de 10 millions de dollars en utilisant des applications, des médias falsifiés et d'autres stratagèmes.
Mais après avoir figuré dans le documentaire populaire de Netflix, The Tinder Swindler, la situation a changé. Il était escroqué de 7,000 XNUMX $ sur les réseaux sociaux dès 2022.
Selon certaines informations, une personne s'est fait passer pour un couple lié à Meta sur Instagram. Ils ont réussi à lui faire transférer de l'argent via le bon vieux PayPal.
Fausses nouvelles et deepfakes de l'IA
Les fausses nouvelles et la désinformation en ligne ne sont pas une nouveauté. Cependant, grâce à la puissance de l'IA, elles deviennent plus faciles à diffuser et il est difficile de distinguer le vrai du faux du deepfake.
30. Les deepfakes ont été multipliés par 10 en 2023.
(Source : Sumsub)
L’essor de l’intelligence artificielle s’est accompagné de l’essor des deepfakes. Les données suggèrent que le nombre de deepfakes détectés a été multiplié par 10 en 2023 et ne cesse d’augmenter cette année.
En fonction des industries, Les deepfakes liés aux cryptomonnaies représentent 88 % de toutes les détections.
Selon les régions, l’Amérique du Nord a connu une Augmentation de 1,740 XNUMX % des fraudes deepfake.
31. Les fausses nouvelles générées par l’IA ont augmenté de 1,000 XNUMX % en un mois.
(Source : NewsGuard via le Washington Post)
Rien qu'en mai 2023, le nombre d'articles de type fake news a augmenté de 1,000 XNUMX % selon le vérificateur de faits NewsGuard.
La recherche a également révélé que Les sites de désinformation alimentés par l'IA sont passés de 49 à 600 dans la même période, selon leurs critères.
Qu'elles soient motivées par des raisons financières ou politiques, l'IA est désormais à l'avant-garde des fausses histoires, largement partagées sur les réseaux sociaux.
32. Le Canada est le pays le plus préoccupé par les fausses nouvelles liées à l’IA.
(Source: (Source : Ipos Global Advisor)
Dans une enquête menée auprès de 21,816 29 citoyens dans XNUMX pays, 65 % des Canadiens craignent que l’IA aggrave les fausses nouvelles.
Les Américains sont légèrement moins inquiets à 56 %L’une des raisons invoquées est la diminution du nombre de médias d’information locaux au Canada, obligeant les gens à se tourner vers des sources d’information moins connues.
33 % pensent que l’IA permettra de générer plus facilement de fausses nouvelles et images réalistes.
(Source: (Source : Ipos Global Advisor)
Parmi tous les citoyens interrogés dans chaque pays, 74 % estiment que l’IA rend plus difficile la distinction entre les vraies et les fausses informations et entre les images et les vraies.
89 % des Indonésiens se sentent les plus forts sur la question, tandis que les Allemands (64%) étaient les moins préoccupés.
34 % des gens ne savent pas si une image est réelle ou générée par l'IA.
(Source : Oliver Wyman Forum)
La recherche suggère Plus de la moitié des gens ne peuvent pas distinguer les fausses images générées par l'IA et les vrais.
35. Une image d'IA figurait dans le top 20 des publications les plus consultées sur Facebook au troisième trimestre 3.
(Source : Misinfo Review)
Que nous les croyions ou non, l'imagerie de l'IA est partout. Au troisième trimestre 2023, l'une L'image de l'IA a recueilli 40 millions de vues et plus de 1.9 million d'engagements. Cela l'a placé dans le top 20 des articles les plus consultés pour la période.
36. En moyenne, 146,681 125 personnes suivent XNUMX pages Facebook riches en images générées par l'IA.
(Source : Misinfo Review)
En moyenne, 146 681 personnes ont suivi 125 pages Facebook qui ont publié au moins 50 images générées par l'IA chacune au cours du troisième trimestre 3.
Il ne s’agissait pas seulement d’œuvres d’art inoffensives, car les chercheurs en ont classé beaucoup comme des spammeurs, des escrocs et des fermes d’engagement.
Au total, le les images ont été vues des centaines de millions de foisEt ce n’est qu’un petit sous-ensemble de ces pages sur Facebook.
37 % des consommateurs ont vu un deepfake au cours de l’année écoulée.
(Source : Jumio)
Selon une enquête menée auprès de plus de 8,000 60 consommateurs adultes, XNUMX % d'entre eux ont rencontré du contenu deepfake au cours de l'année écoulée. 22 % n'étaient pas sûrs, seulement 15 % ont déclaré n'avoir jamais vu de deepfake.
Bien sûr, selon la qualité, on peut même ne pas savoir si on l'a vu.
38 % craignent que les deepfakes puissent influencer les élections.
(Source : Jumio)
Aux États-Unis, 72 % des personnes interrogées craignent que les deepfakes de l'IA puissent influencer les prochaines élections.
Les plus grandes inquiétudes viennent de Singapour et du Mexique (83% respectivement), tandis que le Royaume-Uni est moins préoccupé par l’ingérence électorale 60%.
Malgré cela, les répondants britanniques se sentent les moins capables de repérer un deepfake de politiciens (33%).
Singapour était le pays le plus confiant à 60%, ce qui peut suggérer que la peur est corrélée à la conscience individuelle des deepfakes.
39. Les deepfakes politiques sont les plus courants.
(Source : DeepMind)
L'utilisation abusive la plus courante de Deepfakes d'IA se situe dans la sphère politique selon les recherches de DeepMind et Jigsaw de Google.
Plus précisément, 27% de tous les cas signalés ont tenté de déformer la perception publique des réalités politiques.
Votre 3 meilleures stratégies sont la désinformation, la corruption d’image et la diffamation.
Outre la manipulation de l'opinion, la monétisation et le profit, les escroqueries et les fraudes étaient les deuxièmes et troisième objectif le plus courant des deepfakes.
40. Seuls 38 % des étudiants ont appris à repérer le contenu de l’IA.
(Source : Centre pour la démocratie et la technologie)
L'éducation est un moyen de lutter contre l'impact des deepfakes, mais les écoles risquent d'échouer. 38 % des élèves des écoles britanniques ils disent qu'on leur a appris à repérer les images, le texte et les vidéos générés par l'IA.
Pendant ce temps, 71 % des étudiants eux-mêmes ont exprimé le souhait d'être guidés par leurs éducateurs.
Contenu IA adulte, criminel et inapproprié
L'industrie du porno a toujours été à la pointe de la technologie et l'IA n'est que la prochaine étape. Mais que se passe-t-il lorsque les utilisateurs paient pour un contenu qu'ils pensent être réel ? Ou pire, lorsque des personnes falsifient d'autres contenus sans leur consentement ?
41. Plus de 143,000 2023 vidéos deepfake NSFW ont été téléchargées en XNUMX.
(Source : Channel 4 News via The Guardian)
Les fausses images grossières de célébrités superposées sur des stars adultes existent depuis des décennies, mais l'IA a augmenté leur qualité et leur popularité, tout en introduisant des vidéos.
Alors que la technologie de l’IA a évolué rapidement en 2022/2023, 143,733 1 nouvelles vidéos deepfake sont apparues sur le Web au cours du premier au troisième trimestre de 3.
42. Les recherches de deepfakes NSFW ont augmenté de 5,800 2019 % depuis XNUMX.
(Source : SEMRush via Law News)
Un exemple de la montée de deepfakes pour adultes peut être trouvé en surveillant le volume des moteurs de recherche. Selon une analyse utilisant SEMRush, le terme dans ce contexte a augmenté de 58 fois depuis 2019.
43. 4,000 XNUMX célébrités ont été victimes de deepfakes NSFW.
(Source : Channel 4 News via The Guardian)
Une étude sur les sites Web de deepfake pour adultes les plus populaires a révélé que l'image d'environ 4,000 XNUMX célébrités était générée en images et vidéos explicites.
5 sites ont reçu plus de 100 millions de vues sur une période de trois mois en 2023.
De nombreux pays proposent désormais des lois pour rendre ce type de contenu illégaux.
44 % des images deepfake sont du contenu pour adultes.
(Source : Deeptrace)
Déjà en 2019, 96 % des deepfakes en ligne étaient de nature adulte. 100% étaient des femmes (principalement des célébrités) qui n'avaient pas donné leur consentement.
À l’autre bout de l’échelle, sur YouTube où la nudité est interdite, 61 % des deepfakes étaient des hommes et « basé sur les commentaires ».
45. Les deepfakes de Taylor Swift sont devenus viraux en 2024 avec plus de 27 millions de vues.
(Source : NBC News)
En janvier 2024, Taylor Swift est devenue la sujet le plus consulté des deepfakes quand Images IA NSFW et des vidéos diffusées en ligne, principalement sur Twitter/X.
En 19 heures, le contenu principal a reçu plus de 260,000 XNUMX likes, avant que la plateforme ne supprime le contenu et ne la bloque temporairement de l'algorithme des tendances.
Certains deepfakes ont également présenté Taylor Swift comme une partisane de Trump.
46. Jenna Ortega est la deuxième célébrité deepfake la plus recherchée au Royaume-Uni.
(Source : SEMRush via Law News)
Selon les données de recherche britanniques, derrière Taylor Swift, l'actrice Jenna Ortega est la célébrité la plus recherchée pour les deepfakes pour adultes.
Elle est à égalité avec l'influenceuse Brooke Monk et sa collègue actrice Millie Bobby Brown.
Votre top liste 20 est rempli de tout le monde, de la chanteuse Billie Elish à la streameuse Pokimane, mais toutes sont des femmes.
47. Les faux modèles d'IA gagnent des milliers de dollars par mois sur les plateformes OnlyFans.
(Source : Supercreator, Forbes)
OnlyFans et les plateformes similaires sont connues pour leur contenu pour adultes, mais désormais, l'IA signifie que les vraies personnes n'ont pas à se dévoiler devant la caméra.
Des personnages comme TheRRRealist et Aitana López gagner des milliers par mois.
Alors que le premier est ouvert à affirmer qu'il est faux, le second est plus discret, ouvrir des questions éthiquesEt ils ne sont pas les seuls.
Pourtant, la Influenceurs IA en dehors de l'espace adulte, comme Olivia C (une équipe de deux personnes), qui gagne sa vie grâce aux publicités et aux endossements.
48. 1,500 XNUMX modèles IA ont participé à un concours de beauté.
(Source : Filaire)
Les World AI Creator Awards (WAICA) ont été lancés cet été via la plateforme d'influenceurs IA Fanvue. L'un des volets était un concours de beauté IA, qui a permis à Kenza Layli (ou à son créateur anonyme) $10,000.
Plus de 1,500 XNUMX créations d’IA, accompagnées d’histoires et de modes de vie élaborés, ont participé au concours. Le personnage marocain de Kenza avait un message positif d’autonomisation des femmes et de diversité, mais l’utilisation abusive des deepfakes n’est pas toujours aussi « édifiante ».
49. 6,000 XNUMX personnes ont protesté contre un scandale de deepfake de grande ampleur visant des enseignants et des étudiants.
(Sources : BBC, The Guardian, Korea Times, CNN)
Une série de scandales de deepfakes scolaires a émergé en Corée du Sud en 2024, où des centaines de milliers d'utilisateurs de Telegram partageaient des deepfakes NSFW d'enseignantes et d'étudiantes.
Plus de 60 victimes ont été identifiées, dont les images d’IA se sont répandues sur les réseaux sociaux publics.
Cela a mené à 6,000 XNUMX personnes manifestent à Séoul et finalement, 800 XNUMX délits ont été enregistrés, plusieurs ayant abouti à des condamnations et à l'adoption de nouvelles lois.
Ils ont impliqué autour 200 écoles, la plupart des victimes et des délinquants étant des adolescents.
50 millions de personnes par mois utilisent des applications deepfake « nudify » sur des femmes et des enfants.
(Source : Wired – Nudify)
Au-delà des célébrités, l’utilisation abusive de l’IA deepfake a des implications bien plus sombres.
En 2020, une enquête sur les applications alimentées par l’IA qui « déshabillent » les photos de femmes et d’enfants a révélé 50 bots sur Telegram pour créer des deepfakes avec une sophistication variable. Deux d'entre eux avaient plus de 400,000 XNUMX utilisateurs.
51. Plus de 20,000 XNUMX contenus CSAM générés par l'IA ont été publiés sur un seul forum du Dark Web en un mois.
(Source : IWF)
Les statistiques les plus choquantes sur l’utilisation abusive de l’IA proviennent peut-être d’un rapport de 2023 d’une organisation de protection. Ses enquêteurs ont découvert des dizaines de milliers de contenus CSAM générés par l’IA et publiés sur un seul forum du dark web en un mois.
Le rapport note que ce phénomène a augmenté en 2024 et que de telles images d'IA ont également augmenté sur le Web.
Les caricatures, dessins, animations et pseudo-photographies de cette nature sont illégaux au Royaume-Uni.
Emballer
Malgré l'adoption de l'IA dans de nombreux domaines, nous sommes encore dans une situation très difficile. Que considère la société comme approprié et devrait-il y avoir davantage de réglementations ?
Des étudiants générant des devoirs ou une utilisation risquée sur le lieu de travail aux escroqueries réalistes et aux deepfakes illégaux, l'IA a de nombreuses applications préoccupantes.
Comme le montrent ces statistiques sur l’utilisation abusive de l’IA, il est peut-être temps de repenser l’orientation que nous souhaitons donner à cette technologie.
Vous craignez une utilisation abusive de cette technologie ? Faites-le-moi savoir dans les commentaires ci-dessous !
Sources:
1. Turnitin
3. Centre pour la démocratie et la technologie
5. CNN Monde
6. Conseil Forrester par Workday
7. Suivi des consommateurs Ipos
8. ISE
9. réalisable
10. Livre et artiste
11. Confidentialité et sécurité des données Insider
12. Reuters
14. McAfee
15. sortie
16. Sosafe
17. SlashSuivant
19. KrebOnSecurity
20. IndUniversité Iana via le WSJ
21. WSJ
22. McAfee – Inde
23. fortune
24. Sous-somme
25. NewsGuard via le Washington Post
27. Revue de Misinfo
28. Jumio
29. DeepMind
30. Centre pour la démocratie et la technologie
31. Channel 4 News via The Guardian
32. Deeptrace
33. NBC Nouvelles
34. Nouvelles NBC 2
36. Supercréateur
37. Forbes
38. Câble
39. BBC
40. The Guardian
41. BBC 2
42. Korea Times
43. CNN
44. Filaire – Nudify
45. IWF
Forum des utilisateurs
Messages 1