機械学習ベンチマークにおけるNvidia H100の優位性は依然として揺るぎない

Nvidia H100は現在市場のリーダーである

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • Nvidia の H100 システムは、LLM と GNN を微調整するための MLPerf の新しい AI ベンチマークで優位に立っています。
  • Nvidia は 11,616 個の GPU を使用して、XNUMX つのベンチマークのうち XNUMX つで記録を樹立し、Google と Intel を上回りました。
  • Nvidia は、ソフトウェアの最適化とフラッシュ アテンションにより、GPT-27 のトレーニング時間を 3% 短縮しました。
NVIDIA H100

Nvidiaは長い間AIチップ市場を独占してきましたが、それは全く根拠のない話ではありません。 テクノロジー大手のH100システム は現在の市場リーダーであり、これまでのところ、支配的な競合相手は存在しません。

MLPerfは、 最も人気のあるベンチマーク AIチップのパフォーマンスを測定するために使用されている(最も正確ではないにしても)テストツールが、新しい一連のテストを開始しました。大規模言語モデル(LLM)とグラフニューラルネットワーク(GNN)を微調整するために作成されたもので、これらのテストによると、NvidiaのH100システムが記録を樹立しました。

11,616個のH100 GPUが使用され、MLPerfベンチマークでテストされたシステムの中で最大のものとなった。XNUMXつのベンチマークすべてで最高のパフォーマンスを達成し、そのうちXNUMXつで記録を樹立した。 このレポートの詳細は.

GoogleやIntelなどの競合他社もAIアクセラレータで参加したが、Nvidiaにパフォーマンスで負けた。GoogleのTPUシステムは大幅な速度向上を示し、IntelのGPUも目覚ましい進歩を見せたが、どちらも11,616個のH100 GPUを搭載したNvidiaの最大システムのパフォーマンスに匹敵することはできなかった。

さらに、Nvidia は、いくつかのソフトウェア最適化により、27 年 3 月のベンチマークから GPT-2023 のトレーニング時間が 8% 改善されたことも確認しました。これには、XNUMX ビット浮動小数点演算のより適切な使用、コンピューティング エンジンのより効率的な電力管理、GPU 間の通信の改善が含まれます。

また、メモリ書き込みを最小限に抑えることでトランスフォーマー ネットワークを高速化するアルゴリズムであるフラッシュ アテンションも実装し、トレーニング時間の 10% 短縮に貢献しました。

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *