機械学習モデル用のMicrosoftオープンソース高性能推論エンジン

読書時間アイコン 1分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

Microsoftは昨日、Linux、Windows、およびMacでのONNX形式の機械学習モデル用の高性能推論エンジンであるONNXランタイムをオープンソーシングすることを発表しました。 ONNXランタイムを使用すると、開発者はサポートされているフレームワークでモデルをトレーニングおよび調整し、クラウドとエッジの両方で高性能のこれらのモデルを生成できます。 Microsoftは、Bing Search、Bing Ads、Office生産性サービスなどにONNXランタイムを社内で使用しています。

ONNXは、AIフレームワークエコシステムに相互運用性をもたらし、拡張可能な計算グラフモデルの定義、および組み込み演算子と標準データ型の定義を提供します。 ONNXを使用すると、モデルを2つのフレームワークでトレーニングし、推論のために別のフレームワークに転送できます。 ONNXモデルは現在、CaffeXNUMX、Cognitive Toolkit、およびPyTorchでサポートされています。

Open Neural Network Exchange(ONNX)ランタイムをチェックしてください ここにGitHubがあります。

情報源: Microsoft

トピックの詳細: マイクロソフト, ONNX, オープンニューラルネットワークエクスチェンジ, オープンソースの

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *