Opera sa stáva prvým prehliadačom, ktorý integruje lokálne LLM

Ikona času čítania 1 min. čítať


Čítačky pomáhajú podporovať MSpoweruser. Ak nakupujete prostredníctvom našich odkazov, môžeme získať províziu. Ikona popisu

Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac

Kľúčové poznámky

  • Používatelia môžu teraz priamo spravovať a pristupovať k výkonným modelom AI na svojich zariadeniach, čo ponúka lepšie súkromie a rýchlosť v porovnaní s AI založenou na cloude.
Lokálny prehliadač Opera LLM

Opera dnes oznámila, experimentálna podpora pre 150 miestnych veľkých jazykových modelov (LLM) v rámci vývojárskeho prehliadača Opera One. Vďaka tejto podpore môžu teraz používatelia priamo spravovať a pristupovať k výkonným modelom AI na svojich zariadeniach, čo ponúka lepšie súkromie a rýchlosť v porovnaní s umelou inteligenciou založenou na cloude.

Rozšírený výber a ochrana osobných údajov s miestnymi LLM

Integrácia Opery zahŕňa populárne LLM ako Meta's Llama, Vicuna, Google Gemma, Mistral AI Mixtral a mnoho ďalších. Lokálne LLM eliminujú potrebu zdieľania údajov so servermi, čím chránia súkromie používateľov. Program Opera's AI Feature Drops Program umožňuje vývojárom skorý prístup k týmto špičkovým funkciám.

Ako získať prístup k lokálnym LLM v Opere

Používatelia môžu navštíviť Vývojársky web Opera inovovať na Opera One Developer, čo umožní výber a stiahnutie preferovaného lokálneho LLM. Aj keď vyžadujú úložný priestor (2 – 10 GB na model), miestne LLM môžu ponúknuť výrazné zvýšenie rýchlosti oproti cloudovým alternatívam v závislosti od hardvéru.

Záväzok Opery k inováciám AI

„Zavedenie lokálnych LLM týmto spôsobom umožňuje Opere začať skúmať spôsoby budovania skúseností a know-how v rámci rýchlo sa rozvíjajúceho lokálneho priestoru AI,“ povedal Krystian Kolondra, EVP Browsers and Gaming v Opera.