Microsoft Azure AI เปิดตัว 'Prompt Shields' เพื่อต่อสู้กับการจัดการ LLM

ไอคอนเวลาอ่านหนังสือ 2 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

โล่พร้อมท์ Microsoft Azure AI

Microsoft วันนี้ ประกาศ การปรับปรุงความปลอดภัยที่สำคัญสำหรับแพลตฟอร์ม Azure OpenAI Service และ Azure AI Content Safety ฟีเจอร์ใหม่ที่ได้รับการขนานนามว่า “Prompt Shields” นำเสนอการป้องกันที่แข็งแกร่งต่อการโจมตีที่ซับซ้อนมากขึ้นโดยกำหนดเป้าหมายไปที่โมเดลภาษาขนาดใหญ่ (LLM)

Prompt Shields ป้องกัน:

  • การโจมตีโดยตรง: เรียกอีกอย่างว่าการโจมตีด้วยการเจลเบรค ความพยายามเหล่านี้สั่งสอน LLM อย่างชัดเจนให้เพิกเฉยต่อโปรโตคอลความปลอดภัยหรือดำเนินการที่เป็นอันตราย
  • การโจมตีทางอ้อม: การโจมตีเหล่านี้ฝังคำสั่งที่เป็นอันตรายไว้อย่างละเอียดภายในข้อความที่ดูเหมือนปกติ โดยมีจุดมุ่งหมายเพื่อหลอก LLM ให้เป็นพฤติกรรมที่ไม่พึงประสงค์

Prompt Shields ผสานรวมกับตัวกรองเนื้อหา Azure OpenAI Service และพร้อมใช้งานใน Azure AI Content Safety ด้วยอัลกอริธึมการเรียนรู้ของเครื่องขั้นสูงและการประมวลผลภาษาธรรมชาติ ทำให้ Prompt Shields สามารถระบุและต่อต้านภัยคุกคามที่อาจเกิดขึ้นในการแจ้งเตือนของผู้ใช้และข้อมูลบุคคลที่สาม

จุดเด่น: เทคนิคการป้องกันแบบใหม่

ไมโครซอฟต์ยังได้เปิดตัว “Spotlighting” ซึ่งเป็นวิธีการทางวิศวกรรมเฉพาะทางที่ออกแบบมาเพื่อขัดขวางการโจมตีทางอ้อม เทคนิคการเน้นย้ำ เช่น การกำหนดขอบเขตและการทำเครื่องหมายข้อมูล ช่วยให้ LLM สามารถแยกแยะความแตกต่างระหว่างคำสั่งที่ถูกต้องและคำสั่งฝังตัวที่อาจเป็นอันตรายได้อย่างชัดเจน

ความพร้อมที่จะให้บริการ

ขณะนี้ Prompt Shields อยู่ในการแสดงตัวอย่างสาธารณะโดยเป็นส่วนหนึ่งของความปลอดภัยเนื้อหา Azure AI และจะพร้อมใช้งานภายในบริการ Azure OpenAI ในวันที่ 1 เมษายน การบูรณาการเข้ากับ Azure AI Studio มีการวางแผนในอนาคตอันใกล้นี้

เขียนความเห็น

ที่อยู่อีเมลของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมาย *