New Bing avslører alias 'Sydney', andre originale direktiver etter et raskt injeksjonsangrep

Ikon for lesetid 2 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Den nye ChatGPT-drevne Bing avslørte sine hemmeligheter etter å ha opplevd et raskt injeksjonsangrep. Bortsett fra å røpe kodenavnet som "Sydney", delte det også sine originale direktiver, og veiledet det om hvordan man oppfører seg når man samhandler med brukere. (via Ars Technica)

Raske injeksjonsangrep er fortsatt en av svakhetene ved AI. Det kan gjøres ved å lure AI med ondsinnet og motstridende brukerinndata, som får den til å utføre en oppgave som ikke er en del av det opprinnelige målet eller gjøre ting den ikke skal gjøre. ChatGPT er intet unntak fra det, som avslørt av Stanford University-student Kevin Liu.

Ny ChatGPT-drevet Bing avslører sitt interne alias 'Sydney' og andre originale direktiver etter et raskt injeksjonsangrep
Bildekreditt: Kevin Liu

I en serie skjermbilder delt av Liu, delte den nye ChatGPT-drevne Bing konfidensiell informasjon som er en del av de opprinnelige direktivene, som er skjult for brukere. Liu klarte å skaffe informasjon etter å ha brukt et raskt injeksjonsangrep som lurte AI. Inkludert i informasjonen som er sølt, er instruksjonen for introduksjonen, intern alias Sydney, språk den støtter, og atferdsinstruksjoner. En annen student navngitt Marvin von Hagen bekreftet Lius funn etter å ha utgitt seg som en OpenAI-utvikler.

Etter en dag informasjonen ble avslørt, sa Liu at han ikke kunne se informasjonen ved å bruke den samme meldingen han brukte for å lure ChatGPT. Imidlertid klarte studenten å lure AI-en igjen etter å ha brukt en annen angrepsmetode for rask injeksjon.

Microsoft har nylig offisielt avslørt den nye ChatGPT-støttet Bing sammen med en fornyet Edge-nettleser med en ny AI-drevet sidefelt. Til tross for den tilsynelatende enorme suksessen, har den forbedrede søkemotoren fortsatt sin akilleshæl når det gjelder umiddelbare injeksjonsangrep, noe som kan føre til ytterligere implikasjoner utover å dele sine konfidensielle direktiver. ChatGPT er ikke alene om dette kjente problemet blant AI. Dette kan også strekke seg til andre, inkludert google bard, som nylig begikk sin første feil i en demo. Ikke desto mindre, med hele teknologiindustrien som investerer mer i AI-kreasjoner, kan man bare håpe at problemet kan være mindre truende for AI i fremtiden.

Mer om temaene: ai, Kunstig intelligens, bing, ChatGPT, google bard, Microsoft Edge, åpenAI, sikkerhet

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *