Microsoft Azure AI stellt „Prompt Shields“ zur Bekämpfung von LLM-Manipulation vor
2 Minute. lesen
Veröffentlicht am
Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter
Microsoft heute angekündigt eine wesentliche Sicherheitsverbesserung für seine Plattformen Azure OpenAI Service und Azure AI Content Safety. Die neue Funktion mit dem Namen „Prompt Shields“ bietet einen robusten Schutz vor immer ausgefeilteren Angriffen, die auf große Sprachmodelle (LLMs) abzielen.
Prompt Shields schützt vor:
- Direkte Angriffe: Diese auch als Jailbreak-Angriffe bezeichneten Versuche weisen den LLM ausdrücklich an, Sicherheitsprotokolle zu missachten oder böswillige Aktionen durchzuführen.
- Indirekte Angriffe: Diese Angriffe betten auf subtile Weise schädliche Anweisungen in scheinbar normale Texte ein und zielen darauf ab, den LLM zu unerwünschtem Verhalten zu verleiten.
Prompt Shields ist in die Inhaltsfilter des Azure OpenAI Service integriert und in Azure AI Content Safety verfügbar. Dank fortschrittlicher Algorithmen für maschinelles Lernen und Verarbeitung natürlicher Sprache können Prompt Shields potenzielle Bedrohungen in Benutzeraufforderungen und Daten von Drittanbietern identifizieren und neutralisieren.
Spotlighting: Eine neuartige Verteidigungstechnik
Microsoft hat außerdem „Spotlighting“ eingeführt, einen speziellen Prompt-Engineering-Ansatz, der indirekte Angriffe vereiteln soll. Spotlighting-Techniken wie Trennzeichen und Datenmarkierung helfen LLMs dabei, klar zwischen legitimen Anweisungen und potenziell schädlichen eingebetteten Befehlen zu unterscheiden.
Verfügbarkeit
Prompt Shields befindet sich derzeit im Rahmen von Azure AI Content Safety in der öffentlichen Vorschau und wird am 1. April im Azure OpenAI Service verfügbar sein. Die Integration in Azure AI Studio ist in naher Zukunft geplant.