Microsoft と Facebook の ONNX フォーマットが本番環境に対応しました

読書時間アイコン 1分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

Microsoftは昨日 発表の Open Neural Network Exchange(ONNX)フォーマットは本番環境に対応しています。 ONNXは、AIフレームワークエコシステムに相互運用性をもたらし、拡張可能な計算グラフモデルの定義、および組み込み演算子と標準データ型の定義を提供します。 ONNXを使用すると、モデルを2つのフレームワークでトレーニングし、推論のために別のフレームワークに転送できます。 ONNXモデルは現在、CaffeXNUMX、Cognitive Toolkit、およびPyTorchでサポートされています。

ONNX形式は、AIをよりアクセスしやすく、すべての人にとって価値のあるものにするオープンエコシステムの基盤です。開発者はタスクに適したフレームワークを選択でき、フレームワークの作成者は革新的な拡張機能に集中でき、ハードウェアベンダーは最適化を合理化できます。 

マイクロソフトとフェイスブックの後 発表の このフォーマットは数か月前に、Qualcomm、Huawei、Intelなどの多くのハードウェアパートナーがハードウェアプラットフォームでのONNXフォーマットのサポートを発表し、ユーザーがさまざまなハードウェアプラットフォームでモデルを実行しやすくしました。

Microsoftは昨日、Microsoft CognitiveToolkitがONNXをサポートすることも発表しました。 開発者は、ONNXモデルをCognitive Toolkitにインポートしたり、モデルをONNX形式にエクスポートしたりできるようになりました。

詳細はこちら こちら.

トピックの詳細: Amazon Webサービス, AWS, フェイスブック, マイクロソフト, ONNX, オープンニューラルネットワークエクスチェンジ