NVIDIAとMicrosoftは、企業でAIを加速するためのパートナーシップを発表しました

読書時間アイコン 3分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

nvidia-マイクロソフト

マイクロソフトとNVIDIAは本日、企業内のAIを加速するためのコラボレーションを発表しました。 彼らは、NVIDIADGX-1スーパーコンピューターを含むNVIDIAGPU、および現在プレビュー中のAzureNシリーズ仮想マシンで新しいMicrosoftCognitive Toolkit(以前のCNTK)を実行する最適化されたプラットフォームを導入しています。

MicrosoftAzureまたはオンプレミスのNVIDIATeslaGPUで実行するように最適化された最初の専用エンタープライズAIフレームワークを使用して、企業はデータセンターからMicrosoftのクラウドにまたがるAIプラットフォームを利用できるようになりました。

「すべての業界がAIの可能性に目覚めました」と、NVIDIAの創設者兼最高経営責任者であるジェンスンフアンは述べています。 「マイクロソフトと協力して、DGX-1™スーパーコンピューターを搭載したオンプレミスからMicrosoftAzureクラウドまで利用できる超高速のAIプラットフォームを作成しました。 マイクロソフトのグローバルなリーチにより、世界中のすべての企業がAIの力を利用してビジネスを変革できるようになりました。」

マイクロソフトの人工知能および研究グループのエグゼクティブバイスプレジデントであるハリーシャムは、次のように述べています。 「NVIDIAと緊密に連携し、GPUで高速化されたシステムのパワーを活用することで、CognitiveToolkitとMicrosoftAzureを最速で最も用途の広いAIプラットフォームにしました。 AIは今やあらゆるビジネスの手の届くところにあります。」

NVIDIAとMicrosoftは緊密に協力して、GPUベースのシステムとMicrosoft Azureクラウドで、Cognitive Toolkitを高速化し、スタートアップと主要企業に次のことを提供しました。

  • 汎用性の向上: Cognitive Toolkitを使用すると、顧客はXNUMXつのフレームワークを使用して、オンプレミスでモデルをトレーニングできます。 NVIDIA DGX-1 またはNVIDIAGPUベースのシステムを使用して、Azureのクラウドでそれらのモデルを実行します。 このスケーラブルなハイブリッドアプローチにより、企業はインテリジェント機能のプロトタイプを迅速に作成して展開できます。
  • より高速なパフォーマンス: CPUで実行する場合と比較すると、GPUで高速化されたCognitive Toolkitは、AzureNシリーズサーバーおよびオンプレミスで利用可能なNVIDIAGPUで、ディープラーニングのトレーニングと推論をはるかに高速に実行します。(1) たとえば、PascalおよびNVLink相互接続テクノロジーを搭載したNVIDIA DGX-1は、CognitiveToolkitのCPUサーバーよりも170倍高速です。
  • より広い可用性: NVIDIAGPUを搭載したAzureNシリーズ仮想マシンは、現在Azureのお客様にプレビューされており、まもなく一般提供される予定です。 Azure GPUを使用して、トレーニングとモデル評価の両方を高速化できます。 すでに何千もの顧客がプレビューに参加しているため、あらゆる規模の企業がAzureNシリーズVMのTeslaGPUですでにワークロードを実行しています。

NVIDIAとMicrosoftは、オンプレミスのNVIDIA DGX-1に接続されている場合、AzureのNVIDIAGPU用にCognitiveToolkitを最適化し、ハイブリッドクラウドAIプラットフォームの一部としてコラボレーションを継続することを計画しています。

トピックの詳細: ai, 紺碧, , CNTK, コグニティブツールキット, エンタープライズ, マイクロソフト, NVIDIA, NVIDIA DGX-1