Une organisation britannique de lutte contre la pédopornographie signale une augmentation des deepfakes d'IA pornographiques au cours des derniers mois

L'Internet Watch Foundation (IWF) existe depuis près de trois décennies

Icône de temps de lecture 2 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus.

Notes clés

  • L’IWF affirme que les deepfakes pornographiques d’IA sont produits à « un rythme effrayant » ces derniers mois.
  • L’organisation britannique de lutte contre la pédopornographie révèle ses conclusions dans un rapport récemment publié en juillet 2024.
  • Apple est également confronté à des controverses pour avoir sous-déclaré le matériel d'abus sexuel sur enfants d'IA.
Pirate informatique, illustration deepfake

L'Internet Watch Foundation (IWF), une organisation britannique de lutte contre la pédopornographie, révèle une tendance inquiétante en matière de matériels d'abus sexuels sur enfants générés par l'IA (AI CSAM), ou ce qu'on appelle les deepfakes pornographiques d'IA.

Votre Rapport 2024 de juillet, publié lundi, affirme que ce type de contenu est produit à « un rythme effrayant ». Entre mars et avril 2024, des chercheurs ont découvert neuf nouvelles vidéos deepfakes de maltraitance d'enfants sur un forum du dark web, qui n'étaient pas présentes dans une enquête antérieure datée Octobre 2023 .

Outre, l'étude a également découvert plus de 12,000 3,500 nouvelles images générées par l’IA publiées en un seul mois, dont plus de XNUMX XNUMX considérées comme criminelles et illustrant de graves abus. Cette technologie, en particulier les modèles LoRA, permet aux délinquants de créer des images très réalistes de fausses et de vraies victimes.

« Malheureusement, la législation britannique est à la traîne des avancées technologiques en matière d’IA. Bien que l’IA CSAM soit illégale et que l’IWF puisse prendre des mesures pour la supprimer, il n’en va pas de même pour les modèles d’IA affinés sur des images d’abus sexuels sur des enfants. L’outil permettant de créer des images IA d’Olivia reste légal au Royaume-Uni », indique le rapport.

Le précédent rapport d’octobre 2023 révélait que plus de 20,200 11,100 images d’abus sexuels sur des enfants générées par l’IA avaient été publiées sur un forum du Dark Web en un mois. Parmi celles-ci, plus de 2,500 400 ont été évaluées, dont plus de XNUMX XNUMX sont classées comme pseudophotographies criminelles et environ XNUMX comme images interdites.

L'IFW du Royaume-Uni est opérationnel depuis près de trente ans. En septembre 2022, IFW et Pornhub ont lancé le chatbot « reThink » pour dissuader les utilisateurs de rechercher du matériel pédopornographique, en engageant plus de 173,000 XNUMX utilisateurs au cours du premier mois et en les dirigeant vers les services d'assistance.

Le rapport lui-même est intervenu au milieu de la récente controverse d'Apple sur sous-déclaration des abus sexuels sur les enfants sur leurs plateformes, par rapport à d'autres géants de la technologie comme Meta et Google.

La Société nationale britannique pour la prévention de la cruauté envers les enfants (NSPCC) affirme que iCloud, iMessage et Facetime d'Apple ont été impliqués dans plus de cas de CSAM en Angleterre et au Pays de Galles que ce que le géant de la technologie a rapporté dans le monde. Apple envisageait d'incorporer une IA pour rechercher ce type de contenu sur iCloud, mais en raison de problèmes de confidentialité liés à la collecte de données, le projet a été abandonné.

Forum des utilisateurs

Messages 0