NVIDIA と Google が提携して、NVIDIA GPU 上で新しい Google Gemma を最適化

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • Microsoft は NVIDIA を捨て、Google は新しい AI モデルを最適化するために NVIDIA を採用します。
  • NVIDIA の TensorRT-LLM は、ローカル PC を含むさまざまなプラットフォーム上で Google の Gemma を高速化します。
  • 開発者は、特定のニーズに合わせて Gemma を微調整および展開するためのツールにアクセスできます。

Microsoft は最近、NVIDIA GPU から自社のカスタム チップを選択する決定を発表しましたが、Google は逆のアプローチをとり、NVIDIA と協力して新しい軽量言語モデルである Gemma を NVIDIA GPU 上で最適化しました。

ジェマ   軽量言語モデル Googleが開発。膨大な計算リソースを必要とする従来の大規模言語モデル (LLM) とは異なり、Gemma は優れた機能を提供しながら、より小さいサイズ (2 億および 7 億のパラメーター バージョン) を誇ります。

このコラボレーションは、Gemma のアクセシビリティとパフォーマンスを大幅に向上させ、Gemma をさまざまなプラットフォームでより高速かつ広く利用できるようにすることを目的としています。

このオープンソース ライブラリは LLM 推論を最適化し、データ センター、クラウド環境、さらには NVIDIA RTX GPU を搭載したパーソナル コンピューターの NVIDIA GPU でのパフォーマンスの高速化を可能にします。このコラボレーションは、世界中で 100 億台を超える NVIDIA RTX GPU と、H100 および今後の H200 GPU を搭載したクラウド プラットフォームを対象としています。

NeMo フレームワークや TensorRT-LLM を含む NVIDIA の AI Enterprise スイートにより、開発者は特定のユースケースに合わせて Gemma を微調整して導入できるようになります。

ユーザーは、NVIDIA AI Playground を通じて Gemma と直接対話できるようになり、まもなく Chat with RTX デモを通じて Gemma と直接対話できるようになり、データを使用してチャットボットをパーソナライズできるようになります。

Microsoft、NVIDIAから距離を置く, NVIDIA GPU 上でテクノロジーを最適化するという Google の動きは、両者のパートナーシップが強化される可能性を示唆しています。これは AI と言語モデリングのさらなる進歩につながり、開発者とユーザーの両方に利益をもたらす可能性があります。

さらに、RTX GPU を介したローカル処理に焦点を当てることで、ユーザーはデータとプライバシーをより詳細に制御できるようになり、クラウドベースの LLM サービスに関連する懸念に対処できる可能性があります。

その他 こちら.

トピックの詳細: ジェマ