Nekoliko dana nakon promjena u politici "vojske i ratovanja", OpenAI je već u partnerstvu s američkom obranom

Ikona vremena čitanja 1 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

OpenAI se udružio s Ministarstvom obrane Sjedinjenih Država (DoD) na nekoliko inicijativa za kibernetičku sigurnost. Ovo označava a odmak od prethodne politike OpenAI-ja, koja je izričito zabranjivala korištenje njegove tehnologije u vojnim aplikacijama.

Suradnja uključuje zajedničke napore na razvoju softvera za kibernetičku sigurnost otvorenog koda i sudjelovanje u DARPA AI Cyber ​​Challengeu, čiji je cilj stvoriti softver sposoban za autonomno krpanje ranjivosti i obranu infrastrukture od kibernetičkih napada.

Naime, glavni investitor OpenAI-ja, Microsoft, već ima nekoliko softverskih ugovora s DoD-om. Osim toga, OpenAI-ju se pridružuju Google i Anthropic u podršci AI Cyber ​​Challenge.

Osim svoje suradnje s DoD-om, OpenAI također daje prioritet naporima za ublažavanje potencijala zlouporabu svoje tehnologije na izborima. Tvrtka planira posvetiti resurse kako bi osigurala da se njezini generativni modeli umjetne inteligencije ne koriste za širenje dezinformacija ili utjecaj na političke kampanje.

Partnerstvo s Ministarstvom obrane i naknadne promjene politike pokreću važna pitanja o etičkim implikacijama primjene umjetne inteligencije u vojnom kontekstu. Zabrinutost je usredotočena na potencijalno naoružavanje, nedostatak transparentnih granica koje okružuju dopuštene uporabe i potrebu za uravnoteženjem odgovornog razvoja umjetne inteligencije s interesima nacionalne sigurnosti.

Može li umjetna inteligencija biti sljedeće nuklearno oružje? U određenom smislu, to bi moralo biti zabranjeno u pogledu ratovanja.

more ovdje.

Više o temama: Cybersecurity, otvoriAI