Opera اولین مرورگری است که Local LLMs را ادغام می کند

نماد زمان خواندن 1 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

یادداشت های کلیدی

  • کاربران اکنون می‌توانند مستقیماً مدل‌های هوش مصنوعی قدرتمند را در دستگاه‌های خود مدیریت کرده و به آن‌ها دسترسی داشته باشند و حریم خصوصی و سرعت بیشتری را در مقایسه با هوش مصنوعی مبتنی بر ابر ارائه می‌دهند.
مرورگر اپرا LLM محلی

اپرا امروز اعلام کرد پشتیبانی آزمایشی از 150 مدل زبان بزرگ محلی (LLM) در مرورگر توسعه دهنده Opera One آن. با این پشتیبانی، کاربران اکنون می‌توانند مستقیماً مدل‌های هوش مصنوعی قدرتمند را در دستگاه‌های خود مدیریت کرده و به آن‌ها دسترسی داشته باشند و حریم خصوصی و سرعت بیشتری را در مقایسه با هوش مصنوعی مبتنی بر ابر ارائه دهند.

انتخاب گسترده و حریم خصوصی با LLM های محلی

ادغام اپرا شامل LLM های محبوبی مانند Meta's Llama، Vicuna، Gemma گوگل، Mistral AI's Mixtral و بسیاری دیگر می شود. LLM های محلی نیاز به اشتراک گذاری داده ها با سرورها را از بین می برند و از حریم خصوصی کاربر محافظت می کنند. برنامه کاهش ویژگی های هوش مصنوعی اپرا به توسعه دهندگان امکان دسترسی زودهنگام به این ویژگی های پیشرفته را می دهد.

نحوه دسترسی به LLM های محلی در اپرا

کاربران می توانند بازدید کنند سایت توسعه دهنده اپرا برای ارتقاء به Opera One Developer، انتخاب و دانلود LLM محلی مورد نظر خود را قادر می سازد. در حالی که به فضای ذخیره سازی (2 تا 10 گیگابایت در هر مدل) نیاز است، LLM های محلی می توانند افزایش سرعت قابل توجهی را نسبت به جایگزین های مبتنی بر ابر، بسته به سخت افزار، ارائه دهند.

تعهد اپرا به نوآوری هوش مصنوعی

کریستیان کولوندرا، مرورگرهای EVP و بازی در اپرا، گفت: «معرفی Local LLM به این روش به Opera اجازه می‌دهد تا راه‌های ایجاد تجربیات و دانش را در فضای هوش مصنوعی محلی در حال ظهور سریع آغاز کند.