Mixtral 8x22B avoimen lähdekoodin malli on vihdoin saapunut, ladattavissa Torrentin kautta
Tekoälyteollisuudessa on ollut kiireisiä päiviä tähän mennessä
2 min. lukea
Julkaistu
Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää
Keskeiset huomautukset
- Mistral lanseerasi huippumallinsa, Mixtral 8x22B, kun kilpailu tekoälystä kiihtyy.
- Avoimen lähdekoodin mallissa on 176 B parametria ja kontekstin pituus 65 XNUMX merkkiä
- Se on ladattavissa torrentin kautta.
Mistral on palannut suurella ilmoituksella. Aiemmin keskiviikkona ranskalainen Microsoftin tukema yritys lanseerasi huippumallinsa Mixtral 8x22B, kun kilpailu tekoälystä kiihtyy.
Paras osa siitä? Se on avoimen lähdekoodin järjestelmä, ja voit ladata sen Torrentin kautta 281 Gt:n tiedostokoossa tekoälyn käynnistyksen yhteydessä julkaisi Magnet-linkin X:ssä (aiemmin Twitter). Se on nyt saatavilla myös osoitteessa HalaaKasvot ja Perplexity AI Labs.
Mistral koostuu enimmäkseen Googlen ja Metan entisistä työntekijöistä. Yrityksen edeltäjämalli, Mixtral 8x7B, oli käynnistettiin viime vuoden joulukuussa, mutta sen sanotaan ylittävän kilpailijansa, kuten Llama-2 70B:n ja OpenAI:n GPT-3.5:n tietyissä vertailuissa, kuten MMLU, ARC Challenge, MBPP ja muut.
Nyt Mixtral 8x22B:ssä on 176B parametreja ja kontekstin pituus 65 44 merkkiä. Vaikka se on valtava, se käyttää vain pienempää osaa (XNUMXB) jokaiseen tehtävään, mikä tekee siitä edullisemman käyttää.
Se on epäilemättä ollut yksi AI-alan vilkkaimmista 24 tunnista. Google on vihdoin tehnyt Gemini 1.5 Pro saatavilla useimmissa maissa ja nimesi sen Duet AI for Developers uudelleen nimellä Gemini Code Assist, siirtää infrastruktuurinsa Codeysta Geminiin.
Toinen uutinen Metalta, Tieto on ilmoittanut, että Facebookin omistaja on valmis julkaisemaan pienemmän Llama 3 -version ensi viikolla.
Käyttäjäfoorumi
0-viestit