A Meta hamarosan megjelenő Llama-3 400B modellje potenciálisan legyőzheti a GPT-4 Turbót és a Claude 3 Opust

Nem haladja meg őket, de van benne lehetőség

Olvasási idő ikonra 2 perc olvas


Az olvasók segítenek az MSpoweruser támogatásában. Kaphatunk jutalékot, ha a linkjeinken keresztül vásárol. Eszköztipp ikon

Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább

Főbb megjegyzések

  • A Meta bemutatja a Llama-3-at, a legerősebb, 700B paraméterekkel rendelkező modelljét
  • A Llama-3 fejlődési potenciált mutat annak ellenére, hogy edzési fázisban van
  • A legújabb számok azt sugallják, hogy közel áll a Claude 3 Opushoz és a GPT-4 Turbóhoz a referenciaértékekben

A Meta piacra dobja még legerősebb mesterséges intelligencia modelljét, a Láma-3 400B paraméterekkel. Abban közlemény Csütörtökön a nyílt forráskódú modell hamarosan a WhatsApp-on és az Instagramon megjelenő Meta AI-asszisztens eszközt fogja működtetni. 

De az igazság az, hogy jelenleg rengeteg hatékony AI modell található a piacon. GPT-4 Turbo az OpenAI 128k-os kontextusablakkal már jó ideje létezik, és az Anthropic Claude 3 Opusa már kapható az Amazon Bedrock-on.

Tehát hogyan viszonyulnak ezek a modellek egymáshoz, több benchmark alapján? Íme egy összehasonlítás arról, hogyan tesztelték ezeket a nagy teljesítményű modelleket több lehetőség között. Ezek a számok innen származnak nyilvánosan elérhető információk és Métáé közlemény.

benchmarkLáma 3 400BClaude 3 OpusGPT-4 TurboGemini Ultra 1.0Gemini Pro 1.5
MMLU86.186.886.583.781.9
GPQA4850.449.1--
HumanEval84.184.987.674.471.9
matematika57.860.172.253.258.5

Amint láthatja, a Llama-3 400B valójában kissé alulmarad ezekben a benchmarkokban: 86.1 pontot ért el az MMLU-ban, 48-at a GPQA-ban, 84.1-et a HumanEval-ban és 57.8-at a MATH-ban. 

Tekintettel azonban arra, hogy még képzési fázisban van, jó lehetőség van nagy fejlesztésekre, miután teljesen üzembe helyezték. És egy nyílt forráskódú modell esetében ez jóval lenyűgözőbb. 

Az MMLU azt vizsgálja, hogy a modellek mennyire értik meg a különböző tantárgyakat anélkül, hogy közvetlenül tanítanák őket, és sokféle témakört lefed. A GPQA ezzel szemben a biológia, a fizika és a kémia területén jól teljesítő modelleket válogatja össze, míg a HumanEval arra összpontosít, hogyan kódolnak.