Microsoft va fournir un petit modèle de langage (SLM) Phi Silica dans le cadre de Windows pour alimenter les applications GenAI

Microsoft a lancé encore un autre petit modèle de langage (SLM).

Icône de temps de lecture 2 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale Plus d'informations

Notes clés

  • De nombreux petits modèles, comme l'OpenOELM d'Apple et le Phi-3 de Microsoft, ont été lancés.
  • Aujourd'hui, la société de Redmond a lancé Phi Silica pour les applications d'IA générative.
  • Il sera bientôt livré avec le système d'exploitation Windows.

Microsoft a lancé de nombreux modèles d'IA ces derniers mois. Certains sont conçus pour des tâches plus petites, d’où le nom de petit modèle de langage (SLM). Mais, alors que Microsoft lançait le système « rentable » Modèle Phi-3 qui surpasse ses concurrents, un nouvel ajout à la famille est maintenant arrivé : le Phi Silica. 

Dans le cadre du récent événement Microsoft Build 2024 centré sur l'IA, le géant de la technologie de Redmond a déclaré que ce modèle Phi Silica est « construit sur mesure pour les NPU des PC Copilot+ ». Ou, en d’autres termes, ce modèle construit à partir de la série Phi-3 sera bientôt disponible dans les futures versions de Windows pour alimenter les applications d’IA générative.

Microsoft affirme que le modèle Phi Silica sera encore plus rentable et plus économe en énergie. Il réutilise le cache KV du NPU et s'exécute sur le CPU pour produire environ 27 jetons par seconde.

La société se vante ensuite : « Avec le déchargement complet du traitement rapide par NPU, la latence du premier jeton est de 650 jetons/seconde – et ne coûte qu’environ 1.5 watts de puissance tout en laissant votre CPU et votre GPU libres pour d’autres calculs. »

De nombreux petits modèles d’IA sont arrivés récemment. Apple, le concurrent numéro un de Microsoft, a également lancé OuvrirELM avec différents paramètres allant de 270 millions à 3 milliards.

La famille Phi-3, quant à elle, est arrivée pour la première fois sous trois variantes, phi-3-mini (paramètres 3.8B), phi-3-small (7B) et phi-3-medium (14B). La version mini a été formée à l'aide du logiciel AI-friendly de Nvidia GPU H100.

« Les modèles Phi-3 surpassent considérablement les modèles linguistiques de tailles identiques ou plus grandes sur des critères clés… Phi-3-mini fait mieux que les modèles deux fois sa taille, et Phi-3-small et Phi-3-medium surpassent les modèles beaucoup plus grands, y compris GPT-3.5T », a déclaré Microsoft dans le annonce initiale.