Le modèle Phi-2 2.7B de Microsoft surpasse le modèle Google Gemini Nano-2 3.2B récemment annoncé

Icône de temps de lecture 2 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

Microsoft Phi-2

Au cours des derniers mois, Microsoft Research a publié une suite de petits modèles de langage (SLM) appelée « Phi ». Le Phi-1 a été lancé pour la première fois avec 1.3 milliard de paramètres et était spécialisé pour le codage Python de base. En septembre, Microsoft Research libéré Modèle Phi-1.5 avec 1.3 milliard de paramètres, mais il a été formé avec une nouvelle source de données comprenant divers textes synthétiques PNL. Malgré sa petite taille, le phi-1.5 offrait des performances presque à la pointe de la technologie, comparables à d'autres modèles de taille similaire.

Aujourd'hui, Microsoft a annoncé la sortie du modèle Phi-2 avec 2.7 milliards de paramètres. Microsoft Research affirme que ce nouveau SLM offre des performances de pointe parmi les modèles de langage de base comportant moins de 13 milliards de paramètres. Sur certains benchmarks complexes, le Phi-2 correspond ou surpasse des modèles jusqu'à 25 fois plus grands.

La semaine dernière, Google annoncé Suite Gemini de modèles de langage. Le Gemini Nano est le modèle le plus efficace de Google conçu pour les tâches sur appareil et il peut fonctionner directement sur le silicium mobile. Le petit modèle de langage de type Gemini Nano permet des fonctionnalités telles que le résumé de texte, les réponses intelligentes contextuelles et la relecture avancée et la correction grammaticale.

Selon Microsoft, le nouveau modèle Phi-2 correspond ou surpasse le nouveau Google Gemini Nano-2, bien qu'il soit de plus petite taille. Vous pouvez trouver ci-dessous la comparaison des benchmarks entre les modèles Google Gemini Nano-2 et Phi-2.

ModèleTailleBBHBoolQMBPPMMLU
Gémeaux Nano 23.2M42.479.327.255.8
Phi-22.7M59.383.359.156.7

En plus de surpasser Gemini Nano-2, Phi-2 surpasse également les performances des modèles Mistral et Llama-2 aux paramètres 7B et 13B sur divers benchmarks. Retrouvez les détails ci-dessous.

ModèleTailleBBHBon sens
Raisonnement
Connection Linguistique
LUMIÈRE SUR NOS
MathématiqueCodage
Lama-27B40.062.256.716.521.0
13M47.865.061.934.225.4
70M66.569.267.664.138.3
Mistral7B57.266.463.746.439.4
Phi-22.7M59.268.862.061.153.7

Alors que les deux modèles phi précédents étaient disponibles sur Hugging Face, Phi-2 a été mis à disposition sur le catalogue de modèles Azure. Vous pouvez en savoir plus sur Phi-2 ici.

En savoir plus sur les sujets : microsoft, recherche Microsoft, Phi-1, Phi-2