Operasta tulee ensimmäinen selain, joka integroi paikalliset LLM:t

Lukuajan kuvake 1 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Keskeiset huomautukset

  • Käyttäjät voivat nyt suoraan hallita ja käyttää tehokkaita tekoälymalleja laitteillaan, mikä tarjoaa parempaa yksityisyyttä ja nopeutta verrattuna pilvipohjaiseen tekoälyyn.
Opera-selain paikallinen LLM

Ooppera tänään ilmoitti kokeellinen tuki 150 paikalliselle suurelle kielimallille (LLM) Opera One -kehittäjäselaimessa. Tämän tuen avulla käyttäjät voivat nyt suoraan hallita ja käyttää tehokkaita tekoälymalleja laitteissaan, mikä tarjoaa parempaa yksityisyyttä ja nopeutta verrattuna pilvipohjaiseen tekoälyyn.

Laajennettu valikoima ja yksityisyys paikallisten LLM:ien avulla

Operan integraatio sisältää suosittuja LLM:itä, kuten Meta's Llama, Vicuna, Google's Gemma, Mistral AI's Mixtral ja monia muita. Paikalliset LLM:t poistavat tarpeen jakaa tietoja palvelimien kanssa, mikä suojaa käyttäjien yksityisyyttä. Operan AI Feature Drops -ohjelma mahdollistaa kehittäjien pääsyn näihin huippuominaisuuksiin varhaisessa vaiheessa.

Kuinka käyttää paikallisia LLM:itä Operassa

Käyttäjät voivat vierailla Operan kehittäjäsivusto päivittää Opera One Developeriin, mikä mahdollistaa heidän ensisijaisen paikallisen LLM:n valinnan ja lataamisen. Vaikka paikalliset LLM-yritykset vaativat tallennustilaa (2–10 Gt mallia kohti), ne voivat tarjota laitteistosta riippuen huomattavasti nopeutta pilvipohjaisiin vaihtoehtoihin verrattuna.

Operan sitoutuminen tekoälyinnovaatioon

"Paikallisten LLM-yritysten esittely tällä tavalla antaa Operalle mahdollisuuden alkaa tutkia tapoja rakentaa kokemuksia ja osaamista nopeasti kehittyvässä paikallisessa tekoälytilassa", sanoi Krystian Kolondra, Operan selaimien ja pelaamisen johtaja.