Les militaires peuvent désormais utiliser légalement ChatGPT, des changements de politique sont observés
1 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus
OpenAI a récemment révisé sa politique d'utilisation avec un amendement concernant les applications militaires. La politique précédente interdisait explicitement l’utilisation de sa technologie à des fins « militaires et de guerre ». Cependant, la version mise à jour supprime ce langage spécifique et le remplace par des restrictions plus larges contre les activités susceptibles de causer des dommages.
Modifications de la politique d'utilisation :
- La politique précédente stipulait : « Les activités qui présentent un risque élevé de dommages physiques, y compris […] le développement d'armes et les activités militaires et de guerre », sont interdites.
- La nouvelle politique maintient une interdiction générale « d’utiliser notre service pour faire du mal à vous-même ou à autrui » et cite « développer ou utiliser des armes » comme exemple.
L'entreprise explique ce changement dans le cadre d'un effort visant à rendre la politique « plus claire » et « universellement applicable », en particulier compte tenu de la base d'utilisateurs de plus en plus diversifiée, y compris les individus qui construisent leurs GPT.
Les militaires du monde entier explorent activement le potentiel de la technologie de l’IA, y compris de grands modèles linguistiques comme ChatGPT. Le Pentagone évalue par exemple comment ces outils pourraient être utilisés à diverses fins.
L’étendue des interactions d’OpenAI avec l’armée et ses projets de collaboration restent incertains. La société n’a pas explicitement indiqué si son interdiction de « nuire » englobe toutes les applications militaires.
Plus ici.