Microsofts högpresterande slutledningsmotor för öppna källor för maskininlärningsmodeller

Lästid ikon 1 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

Microsoft tillkännagav i går att det är open sourcing ONNX Runtime, en högpresterande inferensmotor för maskininlärningsmodeller i ONNX-formatet på Linux, Windows och Mac. ONNX Runtime tillåter utvecklare att träna och ställa in modeller i alla ramar som stöds och producera dessa modeller med hög prestanda i både moln och edge. Microsoft använder ONNX Runtime internt för Bing Search, Bing Ads, Office-produktivitetstjänster och mer.

ONNX ger interoperabilitet till AI-ramverkets ekosystem och ger en definition av en utbyggbar beräkningsgrafmodell, såväl som definitioner av inbyggda operatörer och standarddatatyper. ONNX gör det möjligt för modeller att tränas i ett ramverk och överföras till ett annat för slutledning. ONNX-modeller stöds för närvarande i Caffe2, Cognitive Toolkit och PyTorch.

Kolla in Open Neural Network Exchange (ONNX) Runtime på GitHub här.

Källa: Microsoft

Mer om ämnena: microsoft, ONNX, Öppna Neural Network Exchange, öppen källkod

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *