Mixtral 8x22B åpen kildekode-modell har endelig kommet, nedlastbar via Torrent

Det har vært noen travle dager i AI-bransjen så langt

Ikon for lesetid 2 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Viktige merknader

  • Mistral lanserte sin frontier-modell, Mixtral 8x22B, ettersom kappløpet om kunstig intelligens øker.
  • Åpen kildekode-modellen har 176B parametere og en kontekstlengde på 65K tokens
  • Den kan lastes ned via Torrent.
mistral ai anmeldelse

Mistral er tilbake med en stor kunngjøring. Tidligere på onsdag lanserte det franske, Microsoft-støttede selskapet sin frontier-modell, Mixtral 8x22B, mens kappløpet om AI varmes opp.

Den beste delen av det? Det er et åpen kildekode-system, og du kan laste det ned via Torrent på 281 GB i filstørrelse som AI-oppstart la ut magnetlenken sin på X (tidligere kjent som Twitter). Den er nå også tilgjengelig på Klem ansikt og Perplexity AI Labs.

Mistral består for det meste av tidligere ansatte i Google og Meta. Selskapets forgjengermodell, Mixtral 8x7B, var lansert tilbake i desember i fjor, men det sies å ha overgått rivaler som Llama-2 70B og OpenAIs GPT-3.5 i visse benchmarks som MMLU, ARC Challenge, MBPP og andre.

Nå har Mixtral 8x22B 176B parametere og en kontekstlengde på 65K tokens. Selv om den er enorm, bruker den bare en mindre del (44B) for hver oppgave, noe som gjør den rimeligere å bruke.

Det har utvilsomt vært en av de travleste 24 timene i AI-bransjen. Google har endelig gjort Gemini 1.5 Pro tilgjengelig i de fleste land og rebranded sin Duet AI for Developers som Gemini Code Assist, flytte infrastrukturen fra Codey til Gemini. 

Enda en nyhet fra Meta, Informasjonen har utelukkende rapportert at Facebook-eieren er klar til å lansere en mindre Llama 3-versjon neste uke.