Mixtral 8x22B open source model konečně dorazil, ke stažení přes Torrent
V odvětví umělé inteligence bylo zatím několik rušných dní
2 min. číst
Publikované dne
Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Více informací
Klíčové poznámky
- Mistral uvedl na trh svůj hraniční model Mixtral 8x22B, když se závod o AI rozhořel.
- Model s otevřeným zdrojovým kódem má parametry 176B a délku kontextu 65K tokenů
- Je ke stažení přes Torrent.
Mistral je zpět s velkým oznámením. Dříve ve středu francouzská společnost podporovaná Microsoftem uvedla na trh svůj hraniční model Mixtral 8x22B, protože závody o AI se zahřívají.
Nejlepší část? Je to systém s otevřeným zdrojovým kódem a můžete si jej stáhnout přes Torrent ve velikosti souboru 281 GB při spuštění AI zveřejnil svůj odkaz Magnet na X (dříve známý jako Twitter). Nyní je také k dispozici na Objímání tváře a Laboratoře zmatenosti AI.
Mistral je většinou tvořen bývalými zaměstnanci Googlu a Meta. Předchůdcem společnosti byl model Mixtral 8x7B zahájena v prosinci loňského roku, ale říká se, že překonalo soupeře jako Llama-2 70B a OpenAI GPT-3.5 v určitých benchmarcích, jako je MMLU, ARC Challenge, MBPP a další.
Nyní má Mixtral 8x22B 176B parametrů a délku kontextu 65K tokenů. I když je obrovský, pro každý úkol používá pouze menší část (44B), takže je cenově dostupnější.
Nepochybně to byla jedna z nejrušnějších 24 hodin v průmyslu AI. Google konečně udělal Gemini 1.5 Pro k dispozici ve většině zemí a přejmenovala svůj Duet AI for Developers as Gemini Code Assist, přesun své infrastruktury z Codey do Gemini.
Další novinka od Meta, Informace exkluzivně oznámila, že majitel Facebooku je připraven příští týden uvést na trh menší verzi Llama 3.
Uživatelské fórum
0 zprávy