Finalmente è arrivato il modello open source Mixtral 8x22B, scaricabile tramite Torrent
Finora sono stati alcuni giorni impegnativi nel settore dell'intelligenza artificiale
2 minuto. leggere
Edizione del
Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più
Note chiave
- Mistral ha lanciato il suo modello di frontiera, Mixtral 8x22B, mentre la corsa per l'intelligenza artificiale si infiamma.
- Il modello open source ha parametri 176B e una lunghezza del contesto di token 65K
- È scaricabile tramite Torrent.
Mistral torna con un grande annuncio. Mercoledì scorso, la società francese sostenuta da Microsoft ha lanciato il suo modello di frontiera, Mixtral 8x22B, mentre la corsa per l’intelligenza artificiale si infiamma.
La parte migliore? È un sistema open source e puoi scaricarlo tramite Torrent con una dimensione di file di 281 GB come avvio dell'IA ha pubblicato il suo collegamento Magnet su X (precedentemente noto come Twitter). Ora è disponibile anche su abbracciare il viso e Laboratori di intelligenza artificiale per perplessità.
Mistral è composta in maggioranza da ex dipendenti di Google e Meta. Il modello precedente dell'azienda, Mixtral 8x7B, era lanciato nel dicembre dello scorso anno, ma si dice che abbia sovraperformato rivali come Llama-2 70B e GPT-3.5 di OpenAI in alcuni benchmark come MMLU, ARC Challenge, MBPP e altri.
Ora Mixtral 8x22B ha parametri 176B e una lunghezza del contesto di 65 token. Anche se è enorme, utilizza solo una parte più piccola (44B) per ogni attività, rendendone più conveniente l'utilizzo.
È stata senza dubbio una delle 24 ore più impegnative nel settore dell’intelligenza artificiale. Google ha finalmente realizzato Gemini 1.5 Pro disponibile nella maggior parte dei paesi e ha rinominato il suo Duet AI for Developers come Assistenza al codice Gemini, spostando la sua infrastruttura da Codey a Gemini.
Un'altra novità da Meta, Le informazioni ha riferito in esclusiva che il proprietario di Facebook è pronto a lanciare una versione più piccola di Llama 3 la prossima settimana.
Forum degli utenti
0 messaggi