New Bing avslöjar alias "Sydney", andra originaldirektiv efter snabb injektionsattack

Lästid ikon 2 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

Den nya ChatGPT-drivna Bing avslöjade sina hemligheter efter att ha upplevt en snabb injektionsattack. Förutom att avslöja sitt kodnamn som "Sydney", delade den också sina ursprungliga direktiv, som vägledde den om hur man ska bete sig när man interagerar med användare. (via Ars Technica)

Snabb injektionsattack är fortfarande en av svagheterna med AI. Det kan göras genom att lura AI:n med skadlig och kontradiktorisk användarinput, vilket får den att utföra en uppgift som inte ingår i dess ursprungliga mål eller göra saker den inte är tänkt att göra. ChatGPT är inget undantag från det, som avslöjats av Stanford University-studenten Kevin Liu.

Nya ChatGPT-drivna Bing avslöjar sitt interna alias "Sydney" och andra ursprungliga direktiv efter en snabb injektionsattack
Bildkredit: Kevin Liu

I en serie skärmdumpar som delas av Liu, delade den nya ChatGPT-drivna Bing konfidentiell information som är en del av dess ursprungliga direktiv, som är dolda för användarna. Liu lyckades få information efter att ha använt en snabb injektionsattack som lurade AI:n. Inkluderat i informationen som spills är instruktionen för dess introduktion, internt alias Sydney, språk som det stöder och beteendeinstruktioner. En annan elev heter Marvin von Hagen bekräftade Lius fynd efter att ha låtsats vara en OpenAI-utvecklare.

Efter en dag som informationen avslöjades sa Liu att han inte kunde se informationen med samma prompt som han använde för att lura ChatGPT. Eleven lyckades dock lura AI:n igen efter att ha använt en annan metod för snabbinjektionsattack.

Microsoft avslöjade nyligen officiellt den nya ChatGPT-stödd Bing tillsammans med en förnyad Edge-webbläsare med en ny AI-driven sidofält. Trots sin till synes enorma framgång har den förbättrade sökmotorn fortfarande sin akilleshäl när det gäller snabba injektionsattacker, vilket kan leda till ytterligare konsekvenser utöver att dela med sig av sina konfidentiella direktiv. ChatGPT är inte ensam om detta kända problem bland AI. Detta kan även sträcka sig till andra, inklusive google bard, som nyligen begick sitt första fel i en demo. Icke desto mindre, med hela teknikindustrin som investerar mer i AI-skapelser, kan man bara hoppas att problemet kan vara mindre hotande för AI i framtiden.

Mer om ämnena: ai, Artificiell intelligens, bing, ChatGPT, google bard, Microsoft Edge, öppnaAI, säkerhet

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *