Novi Bing otkriva pseudonim "Sydney", druge izvorne direktive nakon brzog napada injekcijom

Ikona vremena čitanja 2 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

Novi Bing koji pokreće ChatGPT otkrio je svoje tajne nakon brzog napada injekcijom. Osim što je otkrio svoje kodno ime kao "Sydney", također je podijelio svoje izvorne smjernice, koje ga vode o tome kako se ponašati u interakciji s korisnicima. (preko Ars Technica)

Napad brzim ubrizgavanjem još uvijek je jedna od slabosti umjetne inteligencije. To se može učiniti tako da se AI prevari zlonamjernim i suparničkim unosom korisnika, navodeći ga da izvrši zadatak koji nije dio njegovog izvornog cilja ili da radi stvari koje ne bi trebao raditi. ChatGPT nije iznimka u tome, kako je otkrio student Sveučilišta Stanford Kevin Liu.

Novi Bing koji pokreće ChatGPT otkriva svoj interni pseudonim 'Sydney' i druge izvorne direktive nakon brzog napada ubrizgavanjem
Zasluga za sliku: Kevin Liu

U nizu snimaka zaslona koje je podijelio Liu, novi Bing koji pokreće ChatGPT podijelio je povjerljive informacije koje su dio njegovih izvornih direktiva, a koje su skrivene od korisnika. Liu je uspio dobiti informacije nakon što je upotrijebio napad brzim ubrizgavanjem koji je prevario AI. U prosute informacije uključene su upute za njegovo uvođenje, interni alias Sydney, jezici koje podržava i upute o ponašanju. Još jedan student imenovan Marvin von Hagen potvrdio je Liuova otkrića nakon što se pretvarao da je programer OpenAI-ja.

Nakon jednog dana kada su informacije otkrivene, Liu je rekao da ne može vidjeti informacije koristeći isti upit koji je upotrijebio da prevari ChatGPT. Međutim, student je ponovno uspio prevariti AI nakon što je upotrijebio drugu metodu napada brzim ubrizgavanjem.

Microsoft je nedavno službeno otkrio novi Bing koji podržava ChatGPT zajedno s obnovljenim preglednikom Edge s novom bočnom trakom koju pokreće AI. Unatoč svom naizgled velikom uspjehu, poboljšana tražilica još uvijek ima svoju Ahilovu petu u smislu brzih napada ubrizgavanjem, što bi moglo dovesti do daljnjih implikacija izvan dijeljenja povjerljivih direktiva. ChatGPT nije sam u ovom poznatom problemu među AI. To bi se moglo proširiti i na druge, uključujući Google super, koji je nedavno napravio svoju prvu pogrešku u demo verziji. Unatoč tome, s obzirom na to da cijela tehnološka industrija sve više ulaže u kreacije umjetne inteligencije, možemo se samo nadati da bi problem mogao biti manje opasan za umjetnu inteligenciju u budućnosti.

Više o temama: ai, Umjetna inteligencija, Bing, ChatGPT, Google super, Microsoft Edge, otvoriAI, sigurnosti

Ostavi odgovor

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena *