Mixtral 8x22B open source model konečně dorazil, ke stažení přes Torrent

V odvětví umělé inteligence bylo zatím několik rušných dní

Ikona času čtení 2 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

Klíčové poznámky

  • Mistral uvedl na trh svůj hraniční model Mixtral 8x22B, když se závod o AI rozhořel.
  • Model s otevřeným zdrojovým kódem má parametry 176B a délku kontextu 65K tokenů
  • Je ke stažení přes Torrent.
mistral ai recenze

Mistral je zpět s velkým oznámením. Dříve ve středu francouzská společnost podporovaná Microsoftem uvedla na trh svůj hraniční model Mixtral 8x22B, protože závody o AI se zahřívají.

Nejlepší část? Je to systém s otevřeným zdrojovým kódem a můžete si jej stáhnout přes Torrent ve velikosti souboru 281 GB při spuštění AI zveřejnil svůj odkaz Magnet na X (dříve známý jako Twitter). Nyní je také k dispozici na Objímání tváře a Laboratoře zmatenosti AI.

Mistral je většinou tvořen bývalými zaměstnanci Googlu a Meta. Předchůdcem společnosti byl model Mixtral 8x7B zahájena v prosinci loňského roku, ale říká se, že překonalo soupeře jako Llama-2 70B a OpenAI GPT-3.5 v určitých benchmarcích, jako je MMLU, ARC Challenge, MBPP a další.

Nyní má Mixtral 8x22B 176B parametrů a délku kontextu 65K tokenů. I když je obrovský, pro každý úkol používá pouze menší část (44B), takže je cenově dostupnější.

Nepochybně to byla jedna z nejrušnějších 24 hodin v průmyslu AI. Google konečně udělal Gemini 1.5 Pro k dispozici ve většině zemí a přejmenovala svůj Duet AI for Developers as Gemini Code Assist, přesun své infrastruktury z Codey do Gemini. 

Další novinka od Meta, Informace exkluzivně oznámila, že majitel Facebooku je připraven příští týden uvést na trh menší verzi Llama 3.