Het Mixtral 8x22B open source-model is eindelijk gearriveerd, te downloaden via Torrent
Het zijn tot nu toe een paar drukke dagen geweest in de AI-industrie
2 minuut. lezen
Uitgegeven op
Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer
Belangrijkste opmerkingen
- Mistral lanceerde zijn grensmodel, Mixtral 8x22B, terwijl de race om AI toeneemt.
- Het open source-model heeft 176B-parameters en een contextlengte van 65K-tokens
- Het is te downloaden via Torrent.
Mistral is terug met een grote aankondiging. Eerder op woensdag lanceerde het Franse, door Microsoft gesteunde bedrijf zijn grensmodel, Mixtral 8x22B, terwijl de race om AI heviger wordt.
Het beste deel ervan? Het is een open-sourcesysteem en je kunt het via Torrent downloaden met een bestandsgrootte van 281 GB terwijl de AI opstart heeft zijn Magnet-link gepost op X (voorheen bekend als Twitter). Het is nu ook beschikbaar op KnuffelenGezicht en Verbijstering AI Labs.
Mistral bestaat grotendeels uit voormalige medewerkers van Google en Meta. Het voorgangermodel van het bedrijf, Mixtral 8x7B, was dat wel gelanceerd in december vorig jaar, maar er wordt gezegd dat het beter presteerde dan rivalen als Llama-2 70B en OpenAI's GPT-3.5 in bepaalde benchmarks zoals MMLU, ARC Challenge, MBPP en andere.
Nu heeft Mixtral 8x22B 176B parameters en een contextlengte van 65K tokens. Ook al is het enorm, het gebruikt slechts een kleiner deel (44B) voor elke taak, waardoor het betaalbaarder in gebruik is.
Het was ongetwijfeld een van de drukste 24 uur in de AI-industrie. Google heeft het eindelijk gemaakt Gemini 1.5 Pro beschikbaar in de meeste landen en heeft de naam Duet AI for Developers omgedoopt tot Gemini Code Assist, waarbij de infrastructuur van Codey naar Gemini wordt verplaatst.
Nog een nieuwtje van Meta, De informatie heeft exclusief gemeld dat de Facebook-eigenaar klaar is om volgende week een kleinere Llama 3-versie te lanceren.
Gebruikersforum
0 berichten