New Bing onthult alias 'Sydney', andere originele richtlijnen na een snelle injectie-aanval

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

De nieuwe door ChatGPT aangedreven Bing onthulde zijn geheimen na een snelle injectie-aanval. Afgezien van het onthullen van zijn codenaam als "Sydney", deelde het ook zijn oorspronkelijke richtlijnen, die het begeleidden bij het omgaan met gebruikers. (via Ars Technica)

Snelle injectieaanval is nog steeds een van de zwakke punten van AI. Dit kan worden gedaan door de AI te misleiden met kwaadaardige en vijandige gebruikersinvoer, waardoor deze een taak uitvoert die geen deel uitmaakt van zijn oorspronkelijke doel of dingen doet die niet hoort te doen. ChatGPT vormt daarop geen uitzondering, zoals onthuld door een student van Stanford University Kevin Liu.

Nieuwe door ChatGPT aangedreven Bing onthult zijn interne alias 'Sydney' en andere originele richtlijnen na een snelle injectie-aanval
Afbeelding tegoed: Kevin Liu

In een reeks screenshots gedeeld door Liu, deelde de nieuwe door ChatGPT aangedreven Bing vertrouwelijke informatie die deel uitmaakt van de oorspronkelijke richtlijnen, die verborgen zijn voor gebruikers. Liu slaagde erin informatie te verkrijgen na een prompt-injectieaanval die de AI voor de gek hield. Inbegrepen in de gemorste informatie is de instructie voor de introductie, interne alias Sydney, talen die het ondersteunt en gedragsinstructies. Een andere student noemde Marvin von Hagen bevestigde de bevindingen van Liu nadat hij zich voordeed als een OpenAI-ontwikkelaar.

Nadat de informatie een dag was onthuld, zei Liu dat hij de informatie niet kon bekijken met dezelfde prompt die hij gebruikte om ChatGPT te misleiden. De student slaagde er echter opnieuw in de AI voor de gek te houden nadat hij een andere aanvalsmethode met directe injectie had gebruikt.

Microsoft heeft het nieuwe onlangs officieel onthuld ChatGPT-ondersteunde Bing naast een vernieuwde Edge-browser met een nieuwe AI-aangedreven zijbalk. Ondanks het ogenschijnlijk enorme succes heeft de verbeterde zoekmachine nog steeds zijn achilleshiel wat betreft snelle injectie-aanvallen, wat kan leiden tot verdere implicaties die verder gaan dan het delen van zijn vertrouwelijke richtlijnen. ChatGPT is niet de enige in dit bekende probleem onder AI. Dit kan zich ook uitstrekken tot anderen, waaronder google bard, dat onlangs zijn eerste fout beging in een demo. Desalniettemin, nu de hele technologie-industrie meer investeert in AI-creaties, kan men alleen maar hopen dat het probleem in de toekomst minder bedreigend kan zijn voor AI.

Meer over de onderwerpen: ai, Artificial Intelligence, bing, ChatGPT, google bard, Microsoft Edge, openAI, veiligheid

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *