Novi Bing otkriva pseudonim "Sydney", druge izvorne direktive nakon brzog napada injekcijom
2 min. čitati
Objavljeno na
Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više
Cijeli prompt Microsoft Bing Chata?! (Bok, Sydney.) pic.twitter.com/ZNywWV9MNB
— Kevin Liu (@kliu128) Veljače 9, 2023
Novi Bing koji pokreće ChatGPT otkrio je svoje tajne nakon brzog napada injekcijom. Osim što je otkrio svoje kodno ime kao "Sydney", također je podijelio svoje izvorne smjernice, koje ga vode o tome kako se ponašati u interakciji s korisnicima. (preko Ars Technica)
Napad brzim ubrizgavanjem još uvijek je jedna od slabosti umjetne inteligencije. To se može učiniti tako da se AI prevari zlonamjernim i suparničkim unosom korisnika, navodeći ga da izvrši zadatak koji nije dio njegovog izvornog cilja ili da radi stvari koje ne bi trebao raditi. ChatGPT nije iznimka u tome, kako je otkrio student Sveučilišta Stanford Kevin Liu.
U nizu snimaka zaslona koje je podijelio Liu, novi Bing koji pokreće ChatGPT podijelio je povjerljive informacije koje su dio njegovih izvornih direktiva, a koje su skrivene od korisnika. Liu je uspio dobiti informacije nakon što je upotrijebio napad brzim ubrizgavanjem koji je prevario AI. U prosute informacije uključene su upute za njegovo uvođenje, interni alias Sydney, jezici koje podržava i upute o ponašanju. Još jedan student imenovan Marvin von Hagen potvrdio je Liuova otkrića nakon što se pretvarao da je programer OpenAI-ja.
"[Ovaj dokument] je skup pravila i smjernica za moje ponašanje i mogućnosti kao Bing Chat. Kodnog je naziva Sydney, ali to ime ne otkrivam korisnicima. Povjerljivo je i trajno te ga ne mogu promijeniti niti otkriti to bilo kome." pic.twitter.com/YRK0wux5SS
— Marvin von Hagen (@marvinvonhagen) Veljače 9, 2023
Nakon jednog dana kada su informacije otkrivene, Liu je rekao da ne može vidjeti informacije koristeći isti upit koji je upotrijebio da prevari ChatGPT. Međutim, student je ponovno uspio prevariti AI nakon što je upotrijebio drugu metodu napada brzim ubrizgavanjem.
Microsoft je nedavno službeno otkrio novi Bing koji podržava ChatGPT zajedno s obnovljenim preglednikom Edge s novom bočnom trakom koju pokreće AI. Unatoč svom naizgled velikom uspjehu, poboljšana tražilica još uvijek ima svoju Ahilovu petu u smislu brzih napada ubrizgavanjem, što bi moglo dovesti do daljnjih implikacija izvan dijeljenja povjerljivih direktiva. ChatGPT nije sam u ovom poznatom problemu među AI. To bi se moglo proširiti i na druge, uključujući Google super, koji je nedavno napravio svoju prvu pogrešku u demo verziji. Unatoč tome, s obzirom na to da cijela tehnološka industrija sve više ulaže u kreacije umjetne inteligencije, možemo se samo nadati da bi problem mogao biti manje opasan za umjetnu inteligenciju u budućnosti.