New Bing afslører alias 'Sydney', andre originale direktiver efter et hurtigt injektionsangreb

Ikon for læsetid 2 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

Den nye ChatGPT-drevne Bing afslørede sine hemmeligheder efter at have oplevet et hurtigt injektionsangreb. Bortset fra at afsløre dets kodenavn som "Sydney", delte det også sine originale direktiver, der vejlede det om, hvordan man opfører sig, når man interagerer med brugere. (via Ars Technica)

Hurtigt injektionsangreb er stadig en af ​​svaghederne ved AI. Det kan gøres ved at narre AI med ondsindet og modstridende brugerinput, hvilket får den til at udføre en opgave, der ikke er en del af dens oprindelige mål, eller gøre ting, den ikke skal gøre. ChatGPT er ingen undtagelse fra det, som afsløret af Stanford University-studerende Kevin Liu.

Ny ChatGPT-drevet Bing afslører sit interne alias 'Sydney' og andre originale direktiver efter et hurtigt injektionsangreb
Billedkredit: Kevin Liu

I en række skærmbilleder delt af Liu delte den nye ChatGPT-drevne Bing fortrolig information, som er en del af dets oprindelige direktiver, som er skjult for brugerne. Liu formåede at få information efter at have brugt et hurtigt injektionsangreb, der narrede AI'en. Inkluderet i den spildte information er instruktionen til dens introduktion, internt alias Sydney, sprog, det understøtter, og adfærdsmæssige instruktioner. En anden elev hedder Marvin von Hagen bekræftede Lius resultater efter at have udgivet sig som en OpenAI-udvikler.

Efter en dag blev oplysningerne afsløret, sagde Liu, at han ikke kunne se oplysningerne ved at bruge den samme prompt, som han brugte til at narre ChatGPT. Eleven formåede dog at narre AI'en igen efter at have brugt en anden prompt-injektionsangrebsmetode.

Microsoft afslørede for nylig officielt det nye ChatGPT-understøttet Bing sammen med en fornyet Edge-browser med en ny AI-drevet sidebar. På trods af dens tilsyneladende enorme succes, har den forbedrede søgemaskine stadig sin akilleshæl i form af hurtige injektionsangreb, hvilket kan føre til yderligere implikationer ud over at dele sine fortrolige direktiver. ChatGPT er ikke alene i dette kendte problem blandt AI. Dette kunne også strække sig til andre, herunder google bard, som for nylig begik sin første fejl i en demo. Ikke desto mindre, med hele teknologiindustrien, der investerer mere i AI-kreationer, kan man kun håbe, at problemet kan være mindre truende for AI i fremtiden.

Mere om emnerne: ai, Kunstig intelligens, bing, ChatGPT, google bard, Microsoft Edge, åbenAI, sikkerhed

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *