Microsoft Azure AI เปิดตัว 'Prompt Shields' เพื่อต่อสู้กับการจัดการ LLM
2 นาที. อ่าน
เผยแพร่เมื่อ
อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม
Microsoft วันนี้ ประกาศ การปรับปรุงความปลอดภัยที่สำคัญสำหรับแพลตฟอร์ม Azure OpenAI Service และ Azure AI Content Safety ฟีเจอร์ใหม่ที่ได้รับการขนานนามว่า “Prompt Shields” นำเสนอการป้องกันที่แข็งแกร่งต่อการโจมตีที่ซับซ้อนมากขึ้นโดยกำหนดเป้าหมายไปที่โมเดลภาษาขนาดใหญ่ (LLM)
Prompt Shields ป้องกัน:
- การโจมตีโดยตรง: เรียกอีกอย่างว่าการโจมตีด้วยการเจลเบรค ความพยายามเหล่านี้สั่งสอน LLM อย่างชัดเจนให้เพิกเฉยต่อโปรโตคอลความปลอดภัยหรือดำเนินการที่เป็นอันตราย
- การโจมตีทางอ้อม: การโจมตีเหล่านี้ฝังคำสั่งที่เป็นอันตรายไว้อย่างละเอียดภายในข้อความที่ดูเหมือนปกติ โดยมีจุดมุ่งหมายเพื่อหลอก LLM ให้เป็นพฤติกรรมที่ไม่พึงประสงค์
Prompt Shields ผสานรวมกับตัวกรองเนื้อหา Azure OpenAI Service และพร้อมใช้งานใน Azure AI Content Safety ด้วยอัลกอริธึมการเรียนรู้ของเครื่องขั้นสูงและการประมวลผลภาษาธรรมชาติ ทำให้ Prompt Shields สามารถระบุและต่อต้านภัยคุกคามที่อาจเกิดขึ้นในการแจ้งเตือนของผู้ใช้และข้อมูลบุคคลที่สาม
จุดเด่น: เทคนิคการป้องกันแบบใหม่
ไมโครซอฟต์ยังได้เปิดตัว “Spotlighting” ซึ่งเป็นวิธีการทางวิศวกรรมเฉพาะทางที่ออกแบบมาเพื่อขัดขวางการโจมตีทางอ้อม เทคนิคการเน้นย้ำ เช่น การกำหนดขอบเขตและการทำเครื่องหมายข้อมูล ช่วยให้ LLM สามารถแยกแยะความแตกต่างระหว่างคำสั่งที่ถูกต้องและคำสั่งฝังตัวที่อาจเป็นอันตรายได้อย่างชัดเจน
ความพร้อมที่จะให้บริการ
ขณะนี้ Prompt Shields อยู่ในการแสดงตัวอย่างสาธารณะโดยเป็นส่วนหนึ่งของความปลอดภัยเนื้อหา Azure AI และจะพร้อมใช้งานภายในบริการ Azure OpenAI ในวันที่ 1 เมษายน การบูรณาการเข้ากับ Azure AI Studio มีการวางแผนในอนาคตอันใกล้นี้