Končno je prišel odprtokodni model Mixtral 8x22B, ki ga je mogoče prenesti prek Torrenta
V industriji umetne inteligence je bilo do zdaj napornih nekaj dni
2 min. prebrati
Objavljeno dne
Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več
Ključne opombe
- Mistral je lansiral svoj mejni model, Mixtral 8x22B, medtem ko se tekma za AI segreva.
- Odprtokodni model ima 176B parametrov in dolžino konteksta 65K žetonov
- Prenesete ga lahko prek Torrenta.
Mistral se vrača z veliko napovedjo. Prej v sredo je francosko podjetje, ki ga podpira Microsoft, predstavilo svoj mejni model Mixtral 8x22B, medtem ko se tekma za AI segreva.
Najboljši del tega? Je odprtokodni sistem in ga lahko prenesete prek Torrenta z velikostjo datoteke 281 GB kot zagon AI objavil svojo povezavo Magnet na X (prej znan kot Twitter). Zdaj je na voljo tudi na HuggingFace in Perplexity AI Labs.
Mistral večinoma sestavljajo nekdanji zaposleni v Googlu in Meti. Predhodnik podjetja Mixtral 8x7B je bil začela decembra lani, vendar naj bi bil v nekaterih merilih uspešnosti, kot so MMLU, ARC Challenge, MBPP in drugi, boljši od tekmecev, kot sta Llama-2 70B in OpenAI GPT-3.5.
Zdaj ima Mixtral 8x22B 176B parametrov in dolžino konteksta 65K žetonov. Čeprav je ogromen, za vsako nalogo porabi le manjši del (44B), zaradi česar je cenovno dostopnejši.
To je bila nedvomno ena najbolj obremenjenih 24 ur v industriji umetne inteligence. Google je končno naredil Na voljo Gemini 1.5 Pro v večini držav in svoj Duet AI for Developers preimenoval v Gemini Code Assist, ki je preselil svojo infrastrukturo iz Codeyja v Gemini.
Še ena novica od Mete, Informacije je ekskluzivno poročal, da je lastnik Facebooka naslednji teden pripravljen predstaviti manjšo različico Llama 3.
Uporabniški forum
Sporočila 0