機械学習モデル用のMicrosoftオープンソース高性能推論エンジン
1分。 読んだ
上で公開
MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む
Microsoftは昨日、Linux、Windows、およびMacでのONNX形式の機械学習モデル用の高性能推論エンジンであるONNXランタイムをオープンソーシングすることを発表しました。 ONNXランタイムを使用すると、開発者はサポートされているフレームワークでモデルをトレーニングおよび調整し、クラウドとエッジの両方で高性能のこれらのモデルを生成できます。 Microsoftは、Bing Search、Bing Ads、Office生産性サービスなどにONNXランタイムを社内で使用しています。
ONNXは、AIフレームワークエコシステムに相互運用性をもたらし、拡張可能な計算グラフモデルの定義、および組み込み演算子と標準データ型の定義を提供します。 ONNXを使用すると、モデルを2つのフレームワークでトレーニングし、推論のために別のフレームワークに転送できます。 ONNXモデルは現在、CaffeXNUMX、Cognitive Toolkit、およびPyTorchでサポートされています。
Open Neural Network Exchange(ONNX)ランタイムをチェックしてください ここにGitHubがあります。
出典: Microsoft
ユーザーフォーラム
0メッセージ