Nekaj ​​​​dni po spremembah v "vojaški in vojni" politiki OpenAI že sodeluje z obrambo ZDA

Ikona časa branja 1 min. prebrati


Bralci pomagajo pri podpori MSpoweruser. Če kupujete prek naših povezav, lahko prejmemo provizijo. Ikona opisa orodja

Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več

OpenAI je sodeloval z Ministrstvom za obrambo Združenih držav (DoD) pri več pobudah za kibernetsko varnost. To označuje a premik od prejšnje politike OpenAI, ki je izrecno prepovedovala uporabo njegove tehnologije v vojaških aplikacijah.

Sodelovanje vključuje skupna prizadevanja pri razvoju odprtokodne programske opreme za kibernetsko varnost in sodelovanje v DARPA AI Cyber ​​Challenge, katerega namen je ustvariti programsko opremo, ki je sposobna samostojno popraviti ranljivosti in zaščititi infrastrukturo pred kibernetskimi napadi.

Predvsem glavni investitor OpenAI, Microsoft, že ima več pogodb o programski opremi z Ministrstvom za obrambo. Poleg tega sta se OpenAI pridružila Google in Anthropic pri podpori AI Cyber ​​Challenge.

Poleg sodelovanja z Ministrstvom za obrambo daje OpenAI prednost tudi prizadevanjem za ublažitev potenciala zlorabo svoje tehnologije na volitvah. Podjetje namerava nameniti sredstva za zagotovitev, da se njegovi generativni modeli umetne inteligence ne bodo uporabljali za širjenje dezinformacij ali vplivanje na politične kampanje.

Partnerstvo z Ministrstvom za obrambo in poznejše spremembe politike odpirajo pomembna vprašanja o etičnih posledicah uvajanja umetne inteligence v vojaške kontekste. Pomisleki so osredotočeni na morebitno uporabo orožja, pomanjkanje preglednih meja, ki obdajajo dovoljene uporabe, in potrebo po uravnoteženju odgovornega razvoja umetne inteligence z interesi nacionalne varnosti.

Je umetna inteligenca lahko naslednje jedrsko orožje? V nekem smislu bi to moralo biti prepovedano glede vojskovanja.

Več tukaj.

Več o temah: Cybersecurity, openAI