Hochleistungs-Inferenz-Engine von Microsoft Open Source für maschinelle Lernmodelle

Symbol für die Lesezeit 1 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Mehr Infos

Microsoft gab gestern bekannt, dass es ONNX Runtime, eine hochleistungsfähige Inferenz-Engine für maschinelle Lernmodelle im ONNX-Format auf Linux, Windows und Mac, als Open Source bereitstellt. ONNX Runtime ermöglicht es Entwicklern, Modelle in jedem unterstützten Framework zu trainieren und zu optimieren und diese Modelle mit hoher Leistung sowohl in der Cloud als auch am Edge zu produzieren. Microsoft verwendet ONNX Runtime intern für Bing Search, Bing Ads, Office-Produktivitätsdienste und mehr.

ONNX bringt Interoperabilität in das KI-Framework-Ökosystem, indem es eine Definition eines erweiterbaren Berechnungsdiagrammmodells sowie Definitionen von integrierten Operatoren und Standarddatentypen bereitstellt. ONNX ermöglicht es, Modelle in einem Framework zu trainieren und zur Inferenz auf ein anderes zu übertragen. ONNX-Modelle werden derzeit in Caffe2, Cognitive Toolkit und PyTorch unterstützt.

Sehen Sie sich die Open Neural Network Exchange (ONNX) Runtime an GitHub hier.

Quelle: Microsoft

Benutzerforum

0 Nachrichten