Microsoft åpne kilder med høy ytelse inferensmotor for maskinlæringsmodeller

Ikon for lesetid 1 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Microsoft kunngjorde i går at det er åpen kildekode ONNX Runtime, en høyytelses inferensmotor for maskinlæringsmodeller i ONNX-formatet på Linux, Windows og Mac. ONNX Runtime lar utviklere trene og tune modeller i ethvert støttet rammeverk og produsere disse modellene med høy ytelse i både sky og edge. Microsoft bruker ONNX Runtime internt for Bing Search, Bing Ads, Office-produktivitetstjenester og mer.

ONNX bringer interoperabilitet til AI-ramme-økosystemet og gir en definisjon av en utvidbar beregningsgrafmodell, samt definisjoner av innebygde operatører og standard datatyper. ONNX gjør det mulig å trene modeller i ett rammeverk og overføre til et annet for slutning. ONNX-modeller støttes for tiden i Caffe2, Cognitive Toolkit og PyTorch.

Sjekk ut Open Neural Network Exchange (ONNX) Runtime på GitHub her.

kilde: Microsoft

Mer om temaene: microsoft, ONNX, Åpne Neural Network Exchange, åpen kildekode

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *