Moteur d'inférence Microsoft open source hautes performances pour les modèles d'apprentissage automatique
1 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale Plus d'informations
Microsoft a annoncé hier qu'il était open source ONNX Runtime, un moteur d'inférence hautes performances pour les modèles d'apprentissage automatique au format ONNX sur Linux, Windows et Mac. ONNX Runtime permet aux développeurs de former et d'ajuster des modèles dans n'importe quel cadre pris en charge et de produire ces modèles avec des performances élevées à la fois dans le cloud et en périphérie. Microsoft utilise ONNX Runtime en interne pour Bing Search, Bing Ads, les services de productivité Office, etc.
ONNX apporte l'interopérabilité à l'écosystème de framework d'IA en fournissant une définition d'un modèle de graphe de calcul extensible, ainsi que des définitions d'opérateurs intégrés et de types de données standard. ONNX permet de former des modèles dans un cadre et de les transférer dans un autre pour l'inférence. Les modèles ONNX sont actuellement pris en charge dans Caffe2, Cognitive Toolkit et PyTorch.
Découvrez le runtime Open Neural Network Exchange (ONNX) sur GitHub ici.
Source: Microsoft
Forum des utilisateurs
Messages 0