Operasta tulee ensimmäinen selain, joka integroi paikalliset LLM:t
1 min. lukea
Päivitetty
Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää
Keskeiset huomautukset
- Käyttäjät voivat nyt suoraan hallita ja käyttää tehokkaita tekoälymalleja laitteillaan, mikä tarjoaa parempaa yksityisyyttä ja nopeutta verrattuna pilvipohjaiseen tekoälyyn.
Ooppera tänään ilmoitti kokeellinen tuki 150 paikalliselle suurelle kielimallille (LLM) Opera One -kehittäjäselaimessa. Tämän tuen avulla käyttäjät voivat nyt suoraan hallita ja käyttää tehokkaita tekoälymalleja laitteissaan, mikä tarjoaa parempaa yksityisyyttä ja nopeutta verrattuna pilvipohjaiseen tekoälyyn.
Laajennettu valikoima ja yksityisyys paikallisten LLM:ien avulla
Operan integraatio sisältää suosittuja LLM:itä, kuten Meta's Llama, Vicuna, Google's Gemma, Mistral AI's Mixtral ja monia muita. Paikalliset LLM:t poistavat tarpeen jakaa tietoja palvelimien kanssa, mikä suojaa käyttäjien yksityisyyttä. Operan AI Feature Drops -ohjelma mahdollistaa kehittäjien pääsyn näihin huippuominaisuuksiin varhaisessa vaiheessa.
Kuinka käyttää paikallisia LLM:itä Operassa
Käyttäjät voivat vierailla Operan kehittäjäsivusto päivittää Opera One Developeriin, mikä mahdollistaa heidän ensisijaisen paikallisen LLM:n valinnan ja lataamisen. Vaikka paikalliset LLM-yritykset vaativat tallennustilaa (2–10 Gt mallia kohti), ne voivat tarjota laitteistosta riippuen huomattavasti nopeutta pilvipohjaisiin vaihtoehtoihin verrattuna.
Operan sitoutuminen tekoälyinnovaatioon
"Paikallisten LLM-yritysten esittely tällä tavalla antaa Operalle mahdollisuuden alkaa tutkia tapoja rakentaa kokemuksia ja osaamista nopeasti kehittyvässä paikallisessa tekoälytilassa", sanoi Krystian Kolondra, Operan selaimien ja pelaamisen johtaja.