Das Modell Phi-2 2.7B von Microsoft übertrifft das kürzlich angekündigte Modell Google Gemini Nano-2 3.2B

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Microsoft Phi-2

In den letzten Monaten hat Microsoft Research eine Reihe kleiner Sprachmodelle (SLMs) namens „Phi“ veröffentlicht. Der Phi-1 wurde zuerst mit 1.3 Milliarden Parametern veröffentlicht und war auf die grundlegende Python-Codierung spezialisiert. Im September, Microsoft Research freigegeben Phi-1.5-Modell mit 1.3 Milliarden Parametern, aber es wurde mit einer neuen Datenquelle trainiert, die verschiedene synthetische NLP-Texte enthielt. Trotz seiner geringen Größe lieferte der phi-1.5 im Vergleich zu anderen Modellen ähnlicher Größe eine nahezu hochmoderne Leistung.

Heute gab Microsoft die Veröffentlichung des Phi-2-Modells mit 2.7 Milliarden Parametern bekannt. Microsoft Research behauptet, dass dieser neue SLM mit weniger als 13 Milliarden Parametern eine hochmoderne Leistung unter Basissprachenmodellen bietet. Bei einigen komplexen Benchmarks erreicht oder übertrifft Phi-2 bis zu 25-mal größere Modelle.

Letzte Woche Google angekündigt Gemini-Suite von Sprachmodellen. Der Gemini Nano ist Googles effizientestes Modell für Aufgaben auf dem Gerät und kann direkt auf mobilen Siliziumgeräten ausgeführt werden. Das Nano-ähnliche kleine Sprachmodell von Gemini ermöglicht Funktionen wie Textzusammenfassung, kontextbezogene intelligente Antworten sowie erweitertes Korrekturlesen und Grammatikkorrektur.

Laut Microsoft entspricht oder übertrifft das neue Phi-2-Modell das neue Google Gemini Nano-2, obwohl es kleiner ist. Unten finden Sie den Benchmark-Vergleich zwischen den Modellen Google Gemini Nano-2 und Phi-2.

ModellGrößeBBHBoolQMBPPMMLU
Gemini Nano 23.2 Mrd42.479.327.255.8
Phi-22.7 Mrd59.383.359.156.7

Phi-2 übertrifft nicht nur Gemini Nano-2, sondern übertrifft auch die Leistung der Mistral- und Llama-2-Modelle bei den Parametern 7B und 13B in verschiedenen Benchmarks. Die Details finden Sie weiter unten.

ModellGrößeBBHGesunder Menschenverstand
Argumentation
Sprache
UNSERE
MatheProgrammierung
Lama-27B40.062.256.716.521.0
13 Mrd47.865.061.934.225.4
70 Mrd66.569.267.664.138.3
Mistral7B57.266.463.746.439.4
Phi-22.7 Mrd59.268.862.061.153.7

Während die beiden vorherigen Phi-Modelle auf Hugging Face verfügbar gemacht wurden, Phi-2 wurde im Azure-Modellkatalog verfügbar gemacht. Erfahren Sie mehr über Phi-2 hier.

Mehr zu den Themen: Microsoft, Microsoft Forschung, Phi-1, Phi-2

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *