Motor de inferență de înaltă performanță Microsoft open source pentru modele de învățare automată
1 min. citit
Publicat în data de
Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Afla mai multe
Microsoft a anunțat ieri că are open source ONNX Runtime, un motor de inferență de înaltă performanță pentru modele de învățare automată în format ONNX pe Linux, Windows și Mac. ONNX Runtime permite dezvoltatorilor să antreneze și să ajusteze modele în orice cadru acceptat și să producă aceste modele cu performanțe ridicate atât în cloud, cât și în edge. Microsoft folosește ONNX Runtime intern pentru Bing Search, Bing Ads, servicii de productivitate Office și multe altele.
ONNX aduce interoperabilitate ecosistemului cadru AI, oferind o definiție a unui model de grafic de calcul extensibil, precum și definiții ale operatorilor încorporați și ale tipurilor de date standard. ONNX permite modelelor să fie antrenate într-un cadru și transferate în altul pentru inferență. Modelele ONNX sunt acceptate în prezent în Caffe2, Cognitive Toolkit și PyTorch.
Verificați Runtime Open Neural Network Exchange (ONNX). GitHub aici.
Sursa: Microsoft
Forumul utilizatorilor
0 mesaje