Intel Gaudi 2 が AI トレーニングで Nvidia H100 を破る。 Stable Diffusion 3 はより速く、より安価に動作します

Nvidia の社長はかつて、H100 は「競合他社のチップが無料であっても、十分に安くはないほど優れている」と述べていました。

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • Nvidia H100 は、CEO Huang によって AI 向けのトップチップとして称賛されました。
  • ただし、Stability AI は、Intel の Gaudi 2 が AI トレーニングにおいて H100 よりも優れていると主張しています。
  • Stability AI によると、Gaudi 2 は安定したパフォーマンス、より安価なコスト、より速い推論速度を提供します。

Nvidia H100 はかなり長い間話題になっています。同社の上司であるジェンセン・ファン氏は、これがAIのトレーニングと推論に最適なチップであり、Intel Gaudi 2よりも優れているとまで述べた。

彼は記録に残っているように、 彼の基調講演 2024年のSIEPR経済サミットでは、H1000は「競合他社のチップが無料であっても十分に安くはないほど優れている」と述べた。

しかし、それは必ずしも真実全体を描いているわけではなく、少なくともそれが安定性 AI が最近述べたことです。安定拡散モデルも立ち上げた新興AI企業は、 主張している Intel の Gaudi 2 チップは、Stable Diffusion 3 においても優れたパフォーマンスを示し、fp100 より前のスケール トレーニングで Nvidia の H8 よりも高速にマルチモーダル拡散トランス アーキテクチャを実行しました。 

コスト効率の高い Gaudi3 は、Stable Beluga 673 モデルをベースに構築された LLaMA 2.5 70B の微調整バージョンである次期 StableBeluga 2 70b モデルで 2 tok/s の推論が観測され、大幅な速度向上も実現する予定です。 

パフォーマンスの点で Nvidia の A100 と H100 の間に位置する Gaudi2 チップは、96 Gb VRAM と安価な 2.4 Tb/s インターコネクトによる確かなパフォーマンスを提供し、AI タスクにとって魅力的な選択肢となっています。

OpenAI の DALL-E 3 と同様に、Stable Diffusion 3 は、Stability AI の次期テキストから画像へのモデルであり、早期プレビューが間もなく公開されます。 800M から 8B パラメータまでのさまざまなサイズが用意されています。

Stability AI の調査結果について詳しく読むことができます こちら.