Microsoft Azure AI memperkenalkan 'Prompt Shields' untuk memerangi manipulasi LLM

Ikon waktu membaca 2 menit Baca


Pembaca membantu dukungan MSpoweruser. Kami mungkin mendapat komisi jika Anda membeli melalui tautan kami. Ikon Keterangan Alat

Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut

Perisai Prompt Microsoft Azure AI

Microsoft hari ini mengumumkan peningkatan keamanan besar untuk Layanan Azure OpenAI dan platform Keamanan Konten Azure AI. Dijuluki “Prompt Shields,” fitur baru ini menawarkan pertahanan yang kuat terhadap serangan yang semakin canggih yang menargetkan model bahasa besar (LLM).

Prompt Shields melindungi terhadap:

  • Serangan Langsung: Juga dikenal sebagai serangan jailbreak, upaya ini secara eksplisit menginstruksikan LLM untuk mengabaikan protokol keselamatan atau melakukan tindakan jahat.
  • Serangan Tidak Langsung: Serangan ini secara halus menanamkan instruksi berbahaya dalam teks yang tampak normal, yang bertujuan untuk mengelabui LLM agar melakukan perilaku yang tidak diinginkan.

Prompt Shields terintegrasi dengan filter konten Azure OpenAI Service dan tersedia di Keamanan Konten Azure AI. Berkat algoritme pembelajaran mesin yang canggih dan pemrosesan bahasa alami, Prompt Shields dapat mengidentifikasi dan menetralisir potensi ancaman pada perintah pengguna dan data pihak ketiga.

Sorotan: Teknik Pertahanan Baru

Microsoft juga memperkenalkan “Spotlighting,” sebuah pendekatan rekayasa cepat khusus yang dirancang untuk menggagalkan serangan tidak langsung. Teknik sorotan, seperti pembatasan dan penandaan data, membantu LLM dengan jelas membedakan antara instruksi yang sah dan perintah tertanam yang berpotensi membahayakan.

Ketersediaan

Prompt Shields saat ini dalam pratinjau publik sebagai bagian dari Keamanan Konten Azure AI dan akan tersedia dalam Layanan Azure OpenAI pada tanggal 1 April. Integrasi ke Azure AI Studio direncanakan dalam waktu dekat.