Metan tuleva Llama-3 400B -malli voisi mahdollisesti voittaa GPT-4 Turbon ja Claude 3 Opuksen

Se ei ylitä niitä, mutta siinä on potentiaalia

Lukuajan kuvake 2 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Keskeiset huomautukset

  • Meta paljastaa Llama-3:n, silti tehokkaimman mallinsa 700B-parametrilla
  • Llama-3:lla on parannuspotentiaalia harjoitusvaiheesta huolimatta
  • Viimeaikaiset luvut viittaavat siihen, että se on lähellä Claude 3 Opusta ja GPT-4 Turboa vertailuissa
Meta yritys

Meta julkaisee vielä tehokkaimman tekoälymallinsa Laama-3 400B-parametreilla. Sen ilmoitus torstaina avoimen lähdekoodin malli saa pian virtansa WhatsAppiin ja Instagramiin saapuvalle Meta AI -avustajatyökalulle. 

Mutta totuus on, että markkinoilla on tällä hetkellä paljon tehokkaita tekoälymalleja. GPT-4 Turbo OpenAI:n 128k kontekstiikkunalla on ollut olemassa jo jonkin aikaa, ja Anthropicin Claude 3 Opus on nyt saatavilla Amazon Bedrockissa.

Joten miten nämä mallit vertautuvat toisiinsa useiden vertailuarvojen perusteella? Tässä on vertailu siitä, kuinka nämä tehokkaat mallit testattiin useissa vaihtoehdoissa. Nämä luvut on otettu julkisesti saatavilla oleva tieto ja Metan ilmoitus.

benchmarkLaama 3 400BClaude 3 OpusGPT-4 TurboGemini Ultra 1.0Gemini Pro 1.5
MMLU86.186.886.583.781.9
GPQA4850.449.1--
HumanEval84.184.987.674.471.9
MATEMATIIKKA57.860.172.253.258.5

Kuten näette, Llama-3 400B jää itse asiassa hieman alle näissä vertailuissa, sillä se on 86.1 MMLU:ssa, 48 GPQA:ssa, 84.1 HumanEvalissa ja 57.8 MATHissa. 

Mutta koska se on vielä koulutusvaiheessa, on olemassa hyvä mahdollisuus suuriin parannuksiin, kun se on otettu kokonaan käyttöön. Ja avoimen lähdekoodin mallissa se on paljon enemmän vaikuttavaa. 

MMLU testaa, kuinka hyvin mallit ymmärtävät eri aineita opettamatta niitä suoraan, kattaen monenlaisia ​​aiheita. GPQA puolestaan ​​​​lajitelee malleja siitä, kuinka hyvin he pärjäävät biologiassa, fysiikassa ja kemiassa, kun taas HumanEval keskittyy siihen, miten he koodaavat. 

Käyttäjäfoorumi

0-viestit