Quelques jours après les changements de politique « militaire et de guerre », OpenAI s'associe déjà à la défense américaine

Icône de temps de lecture 1 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

OpenAI s'est associé au ministère de la Défense des États-Unis (DoD) sur plusieurs initiatives de cybersécurité. Cela marque un un changement par rapport à la politique précédente d’OpenAI, qui interdisait explicitement l’utilisation de sa technologie dans des applications militaires.

La collaboration comprend des efforts conjoints pour développer des logiciels de cybersécurité open source et la participation au DARPA AI Cyber ​​Challenge, qui vise à créer un logiciel capable de corriger de manière autonome les vulnérabilités et de défendre les infrastructures contre les cyberattaques.

Notamment, le principal investisseur d’OpenAI, Microsoft, détient déjà plusieurs contrats logiciels avec le DoD. De plus, OpenAI est rejoint par Google et Anthropic pour soutenir l'AI Cyber ​​Challenge.

Au-delà de sa collaboration avec le DoD, OpenAI donne également la priorité aux efforts visant à atténuer le potentiel utilisation abusive de sa technologie lors des élections. L’entreprise prévoit de consacrer des ressources pour garantir que ses modèles d’IA générative ne soient pas utilisés pour diffuser de la désinformation ou influencer des campagnes politiques.

Le partenariat avec le DoD et les changements politiques ultérieurs soulèvent d’importantes questions sur les implications éthiques du déploiement de l’IA dans des contextes militaires. Les préoccupations se concentrent sur une éventuelle militarisation, l’absence de limites transparentes entourant les utilisations autorisées et la nécessité d’équilibrer le développement responsable de l’IA avec les intérêts de sécurité nationale.

L’IA pourrait-elle être la prochaine arme nucléaire ? Dans un sens, cela devrait être interdit en matière de guerre.

Plus ici.

En savoir plus sur les sujets : Cybersécurité, IA ouverte