Moteur d'inférence Microsoft open source hautes performances pour les modèles d'apprentissage automatique

Icône de temps de lecture 1 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

Microsoft a annoncé hier qu'il était open source ONNX Runtime, un moteur d'inférence hautes performances pour les modèles d'apprentissage automatique au format ONNX sur Linux, Windows et Mac. ONNX Runtime permet aux développeurs de former et d'ajuster des modèles dans n'importe quel cadre pris en charge et de produire ces modèles avec des performances élevées à la fois dans le cloud et en périphérie. Microsoft utilise ONNX Runtime en interne pour Bing Search, Bing Ads, les services de productivité Office, etc.

ONNX apporte l'interopérabilité à l'écosystème de framework d'IA en fournissant une définition d'un modèle de graphe de calcul extensible, ainsi que des définitions d'opérateurs intégrés et de types de données standard. ONNX permet de former des modèles dans un cadre et de les transférer dans un autre pour l'inférence. Les modèles ONNX sont actuellement pris en charge dans Caffe2, Cognitive Toolkit et PyTorch.

Découvrez le runtime Open Neural Network Exchange (ONNX) sur GitHub ici.

La source: Microsoft

En savoir plus sur les sujets : microsoft, ONNX, Échange de réseau neuronal ouvert, open-source

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *