Několik dní po změnách v politice "vojenství a válčení" OpenAI již spolupracuje s americkou obranou

Ikona času čtení 1 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

OpenAI spolupracuje s ministerstvem obrany Spojených států (DoD) na několika iniciativách v oblasti kybernetické bezpečnosti. To značí a posun od předchozí politiky OpenAI, která výslovně zakazovala použití její technologie ve vojenských aplikacích.

Spolupráce zahrnuje společné úsilí při vývoji softwaru pro kybernetickou bezpečnost s otevřeným zdrojovým kódem a účast na DARPA AI Cyber ​​Challenge, jejímž cílem je vytvořit software schopný autonomně opravovat zranitelnosti a bránit infrastrukturu před kybernetickými útoky.

Hlavní investor OpenAI, Microsoft, již má několik softwarových smluv s ministerstvem obrany. K OpenAI se navíc připojují Google a Anthropic v podpoře AI Cyber ​​Challenge.

Kromě spolupráce s DoD upřednostňuje OpenAI také úsilí o zmírnění potenciálu zneužití jeho technologie ve volbách. Společnost plánuje věnovat zdroje na zajištění toho, aby její generativní modely umělé inteligence nebyly využívány k šíření dezinformací nebo ovlivňování politických kampaní.

Partnerství s ministerstvem obrany a následné změny politiky vyvolávají důležité otázky ohledně etických důsledků nasazení AI ve vojenských kontextech. Obavy se zaměřují na potenciální zbrojení, nedostatek transparentních hranic kolem přípustného použití a potřebu vyvážit odpovědný vývoj AI se zájmy národní bezpečnosti.

Mohla by být AI další jadernou zbraní? V jistém smyslu by to muselo být zakázáno ohledně válčení.

Moře zde.

Více o tématech: Kybernetická bezpečnost, openAI