Microsoft Azure AI onthult 'Prompt Shields' om LLM-manipulatie tegen te gaan

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Microsoft Azure AI-promptschild

Microsoft vandaag aangekondigd een belangrijke beveiligingsverbetering voor de Azure OpenAI Service- en Azure AI Content Safety-platforms. De nieuwe functie, genaamd ‘Prompt Shields’, biedt robuuste verdediging tegen steeds geavanceerdere aanvallen gericht op grote taalmodellen (LLM’s).

Prompt Shields beschermt tegen:

  • Directe aanvallen: Deze pogingen, ook bekend als jailbreak-aanvallen, instrueren de LLM expliciet om veiligheidsprotocollen te negeren of kwaadwillige acties uit te voeren.
  • Indirecte aanvallen: Deze aanvallen integreren op subtiele wijze schadelijke instructies in ogenschijnlijk normale tekst, met als doel de LLM tot ongewenst gedrag te verleiden.

Prompt Shields is geïntegreerd met Azure OpenAI Service-inhoudsfilters en is beschikbaar in Azure AI Content Safety. Dankzij geavanceerde machine learning-algoritmen en natuurlijke taalverwerking kan Prompt Shields potentiële bedreigingen in gebruikersprompts en gegevens van derden identificeren en neutraliseren.

Spotlighting: een nieuwe verdedigingstechniek

Microsoft introduceerde ook ‘Spotlighting’, een gespecialiseerde, snelle technische aanpak die is ontworpen om indirecte aanvallen te dwarsbomen. Spotlighting-technieken, zoals afbakening en datamarkering, helpen LLM's duidelijk onderscheid te maken tussen legitieme instructies en potentieel schadelijke ingebedde opdrachten.

Beschikbaarheid

Prompt Shields is momenteel in de openbare preview als onderdeel van Azure AI Content Safety en zal op 1 april beschikbaar zijn binnen de Azure OpenAI Service. Integratie met Azure AI Studio staat in de nabije toekomst gepland.