Het Phi-2 2.7B-model van Microsoft presteert beter dan het onlangs aangekondigde Google Gemini Nano-2 3.2B-model

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Microsoft Phi-2

De afgelopen maanden heeft Microsoft Research een reeks kleine taalmodellen (SLM's) uitgebracht, genaamd "Phi". De Phi-1 werd als eerste uitgebracht met 1.3 miljard parameters en was gespecialiseerd in standaard Python-codering. In september publiceerde Microsoft Research uitgebracht Phi-1.5-model met 1.3 miljard parameters, maar het werd getraind met een nieuwe gegevensbron die verschillende synthetische NLP-teksten bevatte. Ondanks zijn kleine formaat leverde de phi-1.5 bijna state-of-the-art prestaties in vergelijking met andere modellen van vergelijkbare grootte.

Vandaag heeft Microsoft de release aangekondigd van het Phi-2-model met 2.7 miljard parameters. Microsoft Research beweert dat deze nieuwe SLM state-of-the-art prestaties levert onder basistaalmodellen met minder dan 13 miljard parameters. Op sommige complexe benchmarks komt Phi-2 overeen met of overtreft modellen tot 25x groter.

Vorige week, Google aangekondigd Gemini-suite met taalmodellen. De Gemini Nano is het meest efficiënte model van Google, gebouwd voor taken op het apparaat, en kan rechtstreeks op mobiel silicium draaien. Het Gemini Nano-achtige kleine taalmodel maakt functies mogelijk zoals tekstsamenvatting, contextuele slimme antwoorden en geavanceerd proeflezen en grammaticacorrectie.

Volgens Microsoft komt het nieuwe Phi-2-model overeen met of overtreft het de nieuwe Google Gemini Nano-2, ondanks dat het kleiner van formaat is. Hieronder vindt u de benchmarkvergelijking tussen de Google Gemini Nano-2- en Phi-2-modellen.

ModelMaatBBHBoolQMBPPMMLU
Tweeling Nano 23.2B42.479.327.255.8
Phi-22.7B59.383.359.156.7

Phi-2 presteert niet alleen beter dan Gemini Nano-2, maar overtreft ook de prestaties van Mistral- en Llama-2-modellen bij 7B- en 13B-parameters op verschillende benchmarks. Hieronder vindt u de details.

ModelMaatBBHGezond verstand
Redenering
Taal
Begrip
Mathcodering
Lama-27B40.062.256.716.521.0
13B47.865.061.934.225.4
70B66.569.267.664.138.3
mistral7B57.266.463.746.439.4
Phi-22.7B59.268.862.061.153.7

Terwijl de vorige twee phi-modellen beschikbaar werden gesteld op Hugging Face, Phi-2 is beschikbaar gemaakt in de Azure-modelcatalogus. U kunt meer leren over Phi-2 hier.

Meer over de onderwerpen: microsoft, Microsoft onderzoek, Phi-1, Phi-2

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *