Adobe : les gens se désabonnent des réseaux sociaux en raison de la désinformation sur les élections de 2024

Adobe, Microsoft et Google font partie de l'initiative C2PA

Icône de temps de lecture 2 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale Plus d'informations

Notes clés

  • Les inquiétudes concernant la désinformation sur les élections de 2024 poussent de nombreuses personnes à réduire leur utilisation des réseaux sociaux, selon Adobe.
  • Microsoft propose également de nouvelles lois et étiquettes pour les deepfakes et une interdiction des publicités d'IA trompeuses.
  • Google avait précédemment annoncé qu'il intégrait les informations d'identification de contenu de C2PA pour vérifier l'authenticité des images.

2024 est l'année des élections mondiales, avec au moins plus de 70 pays en train de procéder au processus de sélection de leurs dirigeants. Cela représente déjà près de la moitié des pays du monde, et à l'ère de la course à l'intelligence artificielle, des inquiétudes concernant la désinformation surgissent, en particulier avec les deepfakes et le clonage de voix.

Adobe a récemment a mené une étude, révélant que la plupart des consommateurs aux États-Unis sont profondément préoccupés par la désinformation à l'approche de l'élection présidentielle de 2024. L'entreprise fait partie de Coalition pour la provenance et l'authenticité du contenu (C2PA) aux côtés de Microsoft, Google et d'autres géants de la technologie pour lutter contre les visuels générés par l'IA non réglementés.

L’étude montre également que les gens souhaitent que les plateformes de médias sociaux et le gouvernement mettent en place des mesures de protection plus strictes pour lutter contre la désinformation, et que beaucoup d’entre eux réduisent leur utilisation des médias sociaux en raison de ces préoccupations. L’essor du contenu généré par l’IA a fait que 87 % des personnes interrogées ont plus de mal à distinguer la vérité de la fiction, ce qui amène 74 % d’entre elles à douter même des sources fiables.

Brad Smith, VC de Microsoft, a également témoigné devant la commission du renseignement du Sénat avant les élections. Il a proposé trois mesures : une nouvelle loi pour lutter contre la fraude deepfake, des étiquettes obligatoires pour les contenus synthétiques (comme le C2PA) et une interdiction des publicités trompeuses d'IA dans les campagnes politiques, avec quelques exceptions pour la satire et l'actualité.

« Face aux défis posés par les deepfakes et d’autres problèmes technologiques, il est évident qu’aucun secteur de la société ne peut résoudre ces problèmes complexes de manière isolée », déclare Smith.

Google a déjà a annoncé ses plans intégrer les informations d'identification de contenu 2 de C2.1PA dans ses produits tels que Search, Ads et YouTube pour aider les utilisateurs à faire la distinction entre les images réelles et manipulées. Cette mise à jour fournira des détails sur l'origine d'une image et son historique de modification.

Forum des utilisateurs

Messages 0