NVIDIA 和 Google 合作在 NVIDIA GPU 上优化新的 Google Gemma

阅读时间图标 2分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

重点说明

  • 微软抛弃了 NVIDIA,而谷歌则拥抱他们来优化其新的人工智能模型。
  • NVIDIA 的 TensorRT-LLM 在各种平台(包括本地 PC)上加速了 Google Gemma。
  • 开发人员可以使用工具来根据特定需求微调和部署 Gemma。

虽然微软最近宣布决定放弃 NVIDIA GPU,转而使用其定制芯片,但谷歌却采取了相反的做法,与 NVIDIA 合作,在 NVIDIA GPU 上优化其新的轻量级语言模型 Gemma。

是一个 轻量级语言模型 由Google开发。与需要大量计算资源的传统大型语言模型 (LLM) 不同,Gemma 拥有更小的规模(2 亿和 7 亿参数版本),同时提供令人印象深刻的功能。

此次合作旨在显着提高 Gemma 的可访问性和性能,使其更快、更广泛地跨各种平台使用。

该开源库优化了 LLM 推理,可在数据中心、云环境甚至配备 NVIDIA RTX GPU 的个人计算机上实现更快的 NVIDIA GPU 性能。此次合作的目标是全球超过 100 亿个 NVIDIA RTX GPU 以及采用 H100 和即将推出的 H200 GPU 的云平台。

NVIDIA 的 AI 企业套件(包括 NeMo 框架和 TensorRT-LLM)使开发人员能够针对特定用例微调和部署 Gemma。

用户可以通过 NVIDIA AI Playground 直接与 Gemma 交互,并且很快可以通过 Chat with RTX 演示与 Gemma 交互,从而使他们能够利用自己的数据对聊天机器人进行个性化设置。

微软与 NVIDIA 保持距离,谷歌优化其 NVIDIA GPU 技术的举措表明可能会加强他们的合作关系。这可能会导致人工智能和语言建模的进一步进步,使开发人员和用户都受益。

此外,通过 RTX GPU 专注于本地处理使用户能够更好地控制其数据和隐私,从而可能解决与基于云的 LLM 服务相关的问题。

更多 相关信息.

有关主题的更多信息: