Opera กลายเป็นเบราว์เซอร์ตัวแรกที่รวม Local LLM

ไอคอนเวลาอ่านหนังสือ 1 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

หมายเหตุสำคัญ

  • ขณะนี้ผู้ใช้สามารถจัดการและเข้าถึงโมเดล AI อันทรงพลังบนอุปกรณ์ของตนได้โดยตรง ซึ่งให้ความเป็นส่วนตัวและความเร็วที่เพิ่มขึ้นเมื่อเทียบกับ AI บนคลาวด์
เบราว์เซอร์ Opera LLM ท้องถิ่น

โอเปร่าวันนี้ ประกาศ การสนับสนุนการทดลองสำหรับโมเดลภาษาขนาดใหญ่ (LLM) ท้องถิ่น 150 รายการภายในเบราว์เซอร์นักพัฒนา Opera One ด้วยการสนับสนุนนี้ ผู้ใช้สามารถจัดการและเข้าถึงโมเดล AI อันทรงพลังบนอุปกรณ์ของตนได้โดยตรง โดยให้ความเป็นส่วนตัวและความเร็วที่เพิ่มขึ้นเมื่อเทียบกับ AI บนคลาวด์

เพิ่มทางเลือกและความเป็นส่วนตัวด้วย LLM ท้องถิ่น

การบูรณาการของ Opera รวมถึง LLM ยอดนิยม เช่น Llama ของ Meta, Vicuna, Gemma ของ Google, Mixtral ของ Mistral AI และอีกมากมาย LLM ในพื้นที่ขจัดความจำเป็นในการแบ่งปันข้อมูลกับเซิร์ฟเวอร์ เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ โปรแกรม AI Feature Drops ของ Opera ช่วยให้นักพัฒนาสามารถเข้าถึงฟีเจอร์ล้ำสมัยเหล่านี้ได้ก่อนใคร

วิธีการเข้าถึง LLM ท้องถิ่นใน Opera

ผู้ใช้สามารถเยี่ยมชม ไซต์ผู้พัฒนาของ Opera เพื่ออัปเกรดเป็น Opera One Developer ช่วยให้สามารถเลือกและดาวน์โหลด LLM ท้องถิ่นที่ต้องการได้ แม้ว่าต้องใช้พื้นที่จัดเก็บข้อมูล (2-10 GB ต่อรุ่น) LLM ในพื้นที่สามารถเสนอการเร่งความเร็วได้อย่างมีนัยสำคัญเหนือทางเลือกอื่นบนคลาวด์ โดยขึ้นอยู่กับฮาร์ดแวร์

ความมุ่งมั่นของ Opera ต่อนวัตกรรม AI

“การแนะนำ LLM ท้องถิ่นในลักษณะนี้ทำให้ Opera สามารถเริ่มสำรวจวิธีการสร้างประสบการณ์และความรู้ความชำนาญภายในพื้นที่ AI ท้องถิ่นที่กำลังเติบโตอย่างรวดเร็ว” Krystian Kolondra รองประธานฝ่ายเบราว์เซอร์และเกมของ Opera กล่าว