Microsoft åpne kilder med høy ytelse inferensmotor for maskinlæringsmodeller
1 min. lese
Publisert på
Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer
Microsoft kunngjorde i går at det er åpen kildekode ONNX Runtime, en høyytelses inferensmotor for maskinlæringsmodeller i ONNX-formatet på Linux, Windows og Mac. ONNX Runtime lar utviklere trene og tune modeller i ethvert støttet rammeverk og produsere disse modellene med høy ytelse i både sky og edge. Microsoft bruker ONNX Runtime internt for Bing Search, Bing Ads, Office-produktivitetstjenester og mer.
ONNX bringer interoperabilitet til AI-ramme-økosystemet og gir en definisjon av en utvidbar beregningsgrafmodell, samt definisjoner av innebygde operatører og standard datatyper. ONNX gjør det mulig å trene modeller i ett rammeverk og overføre til et annet for slutning. ONNX-modeller støttes for tiden i Caffe2, Cognitive Toolkit og PyTorch.
Sjekk ut Open Neural Network Exchange (ONNX) Runtime på GitHub her.
kilde: Microsoft