Quelques jours après les changements de politique « militaire et de guerre », OpenAI s'associe déjà à la défense américaine
1 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus
OpenAI s'est associé au ministère de la Défense des États-Unis (DoD) sur plusieurs initiatives de cybersécurité. Cela marque un un changement par rapport à la politique précédente d’OpenAI, qui interdisait explicitement l’utilisation de sa technologie dans des applications militaires.
La collaboration comprend des efforts conjoints pour développer des logiciels de cybersécurité open source et la participation au DARPA AI Cyber Challenge, qui vise à créer un logiciel capable de corriger de manière autonome les vulnérabilités et de défendre les infrastructures contre les cyberattaques.
Notamment, le principal investisseur d’OpenAI, Microsoft, détient déjà plusieurs contrats logiciels avec le DoD. De plus, OpenAI est rejoint par Google et Anthropic pour soutenir l'AI Cyber Challenge.
Au-delà de sa collaboration avec le DoD, OpenAI donne également la priorité aux efforts visant à atténuer le potentiel utilisation abusive de sa technologie lors des élections. L’entreprise prévoit de consacrer des ressources pour garantir que ses modèles d’IA générative ne soient pas utilisés pour diffuser de la désinformation ou influencer des campagnes politiques.
Le partenariat avec le DoD et les changements politiques ultérieurs soulèvent d’importantes questions sur les implications éthiques du déploiement de l’IA dans des contextes militaires. Les préoccupations se concentrent sur une éventuelle militarisation, l’absence de limites transparentes entourant les utilisations autorisées et la nécessité d’équilibrer le développement responsable de l’IA avec les intérêts de sécurité nationale.
L’IA pourrait-elle être la prochaine arme nucléaire ? Dans un sens, cela devrait être interdit en matière de guerre.
Plus ici.