Opera se stává prvním prohlížečem, který integruje místní LLM

Ikona času čtení 1 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

Klíčové poznámky

  • Uživatelé nyní mohou přímo spravovat a přistupovat k výkonným modelům umělé inteligence na svých zařízeních, což nabízí lepší soukromí a rychlost ve srovnání s cloudovou umělou inteligencí.
Místní prohlížeč Opera LLM

Opera dnes oznámila, experimentální podpora pro 150 místních velkých jazykových modelů (LLM) v rámci svého vývojářského prohlížeče Opera One. Díky této podpoře mohou nyní uživatelé přímo spravovat a přistupovat k výkonným modelům umělé inteligence na svých zařízeních, což nabízí lepší soukromí a rychlost ve srovnání s cloudovou umělou inteligencí.

Rozšířený výběr a soukromí s místními LLM

Integrace Opery zahrnuje oblíbené LLM jako Meta's Llama, Vicuna, Google Gemma, Mistral AI Mixtral a mnoho dalších. Místní LLM eliminují potřebu sdílet data se servery a chrání soukromí uživatelů. Program Opera's AI Feature Drops Program umožňuje vývojářům včasný přístup k těmto špičkovým funkcím.

Jak získat přístup k místním LLM v Opeře

Uživatelé mohou navštívit Vývojářský web Opery upgradovat na Opera One Developer a umožnit tak výběr a stažení preferovaného místního LLM. Zatímco vyžadují úložný prostor (2–10 GB na model), místní LLM mohou nabídnout výrazné zvýšení rychlosti oproti cloudovým alternativám v závislosti na hardwaru.

Závazek Opery k inovacím AI

„Zavedení Local LLM tímto způsobem umožňuje Opeře začít zkoumat způsoby budování zkušeností a know-how v rychle se rozvíjejícím místním prostoru umělé inteligence,“ řekl Krystian Kolondra, EVP Browsers and Gaming v Opeře.