機械学習ベンチマークにおけるNvidia H100の優位性は依然として揺るぎない
Nvidia H100は現在市場のリーダーである
2分。 読んだ
上で公開
MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む
キーノート
- Nvidia の H100 システムは、LLM と GNN を微調整するための MLPerf の新しい AI ベンチマークで優位に立っています。
- Nvidia は 11,616 個の GPU を使用して、XNUMX つのベンチマークのうち XNUMX つで記録を樹立し、Google と Intel を上回りました。
- Nvidia は、ソフトウェアの最適化とフラッシュ アテンションにより、GPT-27 のトレーニング時間を 3% 短縮しました。
Nvidiaは長い間AIチップ市場を独占してきましたが、それは全く根拠のない話ではありません。 テクノロジー大手のH100システム は現在の市場リーダーであり、これまでのところ、支配的な競合相手は存在しません。
MLPerfは、 最も人気のあるベンチマーク AIチップのパフォーマンスを測定するために使用されている(最も正確ではないにしても)テストツールが、新しい一連のテストを開始しました。大規模言語モデル(LLM)とグラフニューラルネットワーク(GNN)を微調整するために作成されたもので、これらのテストによると、NvidiaのH100システムが記録を樹立しました。
11,616個のH100 GPUが使用され、MLPerfベンチマークでテストされたシステムの中で最大のものとなった。XNUMXつのベンチマークすべてで最高のパフォーマンスを達成し、そのうちXNUMXつで記録を樹立した。 このレポートの詳細は.
GoogleやIntelなどの競合他社もAIアクセラレータで参加したが、Nvidiaにパフォーマンスで負けた。GoogleのTPUシステムは大幅な速度向上を示し、IntelのGPUも目覚ましい進歩を見せたが、どちらも11,616個のH100 GPUを搭載したNvidiaの最大システムのパフォーマンスに匹敵することはできなかった。
さらに、Nvidia は、いくつかのソフトウェア最適化により、27 年 3 月のベンチマークから GPT-2023 のトレーニング時間が 8% 改善されたことも確認しました。これには、XNUMX ビット浮動小数点演算のより適切な使用、コンピューティング エンジンのより効率的な電力管理、GPU 間の通信の改善が含まれます。
また、メモリ書き込みを最小限に抑えることでトランスフォーマー ネットワークを高速化するアルゴリズムであるフラッシュ アテンションも実装し、トレーニング時間の 10% 短縮に貢献しました。
ユーザーフォーラム
0メッセージ