New Bing enthüllt Alias ​​​​'Sydney', andere ursprüngliche Anweisungen nach einem prompten Injektionsangriff

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Das neue ChatGPT-betriebene Bing enthüllte seine Geheimnisse, nachdem es einen Prompt-Injection-Angriff erlebt hatte. Abgesehen davon, dass es seinen Codenamen als „Sydney“ preisgab, teilte es auch seine ursprünglichen Anweisungen mit, die es anleiteten, wie es sich bei der Interaktion mit Benutzern verhalten sollte. (über Ars Technica)

Prompt Injection Attack ist immer noch eine der Schwächen der KI. Dies kann erreicht werden, indem die KI mit böswilligen und feindlichen Benutzereingaben ausgetrickst wird, wodurch sie veranlasst wird, eine Aufgabe auszuführen, die nicht Teil ihres ursprünglichen Ziels ist, oder Dinge zu tun, die sie nicht tun sollte. ChatGPT ist da keine Ausnahme, wie ein Student der Stanford University enthüllte Kevin Liu.

Das neue ChatGPT-betriebene Bing gibt seinen internen Alias ​​„Sydney“ und andere ursprüngliche Anweisungen nach einem Prompt-Injection-Angriff offen
Bildnachweis: Kevin Liu

In einer Reihe von Screenshots, die von Liu geteilt wurden, hat das neue ChatGPT-betriebene Bing vertrauliche Informationen geteilt, die Teil seiner ursprünglichen Anweisungen sind, die den Benutzern verborgen bleiben. Liu gelang es, Informationen zu erhalten, nachdem er einen sofortigen Injektionsangriff ausgeführt hatte, der die KI täuschte. In den verschütteten Informationen sind die Anweisung für seine Einführung, der interne Alias ​​​​Sydney, die unterstützten Sprachen und Verhaltensanweisungen enthalten. Ein anderer Student namens Marvin von Hagen bestätigte Lius Ergebnisse, nachdem er sich als OpenAI-Entwickler ausgegeben hatte.

Nach einem Tag, an dem die Informationen enthüllt wurden, sagte Liu, dass er die Informationen nicht mit der gleichen Eingabeaufforderung anzeigen könne, mit der er ChatGPT ausgetrickst habe. Dem Schüler gelang es jedoch, die KI erneut zu täuschen, nachdem er eine andere Angriffsmethode mit sofortiger Injektion angewendet hatte.

Microsoft hat das Neue kürzlich offiziell enthüllt ChatGPT-unterstütztes Bing neben einem überarbeiteten Edge-Browser mit einer neuen KI-gestützten Seitenleiste. Trotz ihres scheinbar großen Erfolgs hat die verbesserte Suchmaschine immer noch ihre Achillesferse in Bezug auf Prompt-Injection-Angriffe, was zu weiteren Auswirkungen führen könnte, die über die Weitergabe ihrer vertraulichen Anweisungen hinausgehen. ChatGPT ist mit diesem bekannten Problem unter KI nicht allein. Dies könnte sich auch auf andere erstrecken, einschließlich Google Barde, das kürzlich seinen ersten Fehler in einer Demo begangen hat. Da die gesamte Technologiebranche jedoch mehr in KI-Kreationen investiert, kann man nur hoffen, dass das Problem für die KI in Zukunft weniger bedrohlich sein könnte.

Mehr zu den Themen: ai, Artificial Intelligence, bing, ChatGPT, Google Barde, Microsoft Edge, openAI, Sicherheitdienst

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *