Nový Bing odhaluje alias 'Sydney', další původní směrnice po rychlém injekčním útoku

Ikona času čtení 2 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

Nový Bing poháněný ChatGPT odhalil svá tajemství poté, co zažil rychlý injekční útok. Kromě toho, že prozradila své kódové označení „Sydney“, sdílela také své původní směrnice, které ji vedly k tomu, jak se chovat při interakci s uživateli. (přes Ars Technica)

Pohotový útok injekcí je stále jednou ze slabin AI. Toho lze dosáhnout oklamáním AI pomocí škodlivých a nepřátelských uživatelských vstupů, což způsobí, že provede úkol, který není součástí jeho původního cíle, nebo udělá věci, které dělat nemá. ChatGPT není výjimkou, jak odhalil student Stanfordské univerzity Kevin Liu.

Nový Bing poháněný ChatGPT odhaluje svůj interní alias 'Sydney' a další původní směrnice po rychlém injekčním útoku
Obrazový kredit: Kevin Liu

V sérii snímků obrazovky sdílených Liu sdílel nový Bing poháněný ChatGPT důvěrné informace, které jsou součástí jeho původních směrnic, které jsou před uživateli skryté. Liuovi se podařilo získat informace po použití rychlého injekčního útoku, který oklamal AI. V rozsypaných informacích je zahrnuta instrukce pro její úvod, interní alias Sydney, jazyky, které podporuje, a pokyny k chování. Jmenován další student Marvin von Hagen potvrdil Liuova zjištění poté, co se vydával za vývojáře OpenAI.

Po dni, kdy byly informace odhaleny, Liu řekl, že nemůže zobrazit informace pomocí stejné výzvy, kterou použil k oklamání ChatGPT. Studentovi se však po použití jiné metody rychlého injekčního útoku podařilo AI znovu oklamat.

Microsoft nedávno oficiálně odhalil novinku Bing s podporou ChatGPT vedle vylepšeného prohlížeče Edge s novým postranním panelem poháněným umělou inteligencí. Navzdory svému zdánlivě obrovskému úspěchu má vylepšený vyhledávač stále svou Achillovu patu, pokud jde o rychlé injekční útoky, což by mohlo vést k dalším důsledkům nad rámec sdílení jeho důvěrných směrnic. ChatGPT není v tomto známém problému mezi AI sám. To by se mohlo rozšířit i na další, včetně Google v pohodě, která se nedávno dopustila své první chyby v demu. Vzhledem k tomu, že celý technologický průmysl více investuje do výtvorů AI, lze jen doufat, že tento problém by mohl být v budoucnu pro AI méně hrozivý.

Více o tématech: ai, Umělá inteligence, Bing, ChatGPT, Google v pohodě, Microsoft hran, openAI, zabezpečení

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Povinné položky jsou označeny *