NVIDIA 和微软宣布合作加速企业 AI

阅读时间图标 3分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

英伟达-微软

微软和英伟达今天宣布了一项合作,以加速企业中的人工智能。 他们正在推出一个优化平台,该平台在 NVIDIA GPU(包括 NVIDIA DGX-1 超级计算机)和 Azure N 系列虚拟机上运行新的 Microsoft Cognitive Toolkit(以前称为 CNTK),目前为预览版。

使用第一个专门构建的企业 AI 框架,该框架经过优化,可在 Microsoft Azure 或本地的 NVIDIA Tesla GPU 上运行,企业现在拥有一个从数据中心到 Microsoft 云的 AI 平台。

“每个行业都已经意识到人工智能的潜力,”NVIDIA 创始人兼首席执行官黄仁勋说。 “我们与 Microsoft 合作创建了一个闪电般快速的 AI 平台,该平台可在本地使用我们的 DGX-1™ 超级计算机到 Microsoft Azure 云。 凭借微软的全球影响力,世界各地的每家公司现在都可以利用人工智能的力量来改变他们的业务。”

微软人工智能与研究集团执行副总裁 Harry Shum 表示:“我们正在努力为每个组织提供人工智能,以便他们能够制造更智能的产品并解决一些世界上最紧迫的问题。” “通过与 NVIDIA 密切合作并利用 GPU 加速系统的强大功能,我们使 Cognitive Toolkit 和 Microsoft Azure 成为最快、最通用的 AI 平台。 人工智能现在触手可及任何企业。”

NVIDIA 和 Microsoft 密切合作,在基于 GPU 的系统和 Microsoft Azure 云中加速认知工具包,为初创公司和大型企业提供:

  • 更大的通用性: Cognitive Toolkit 让客户可以使用一个框架在本地训练模型 英伟达 DGX-1 或使用基于 NVIDIA GPU 的系统,然后在 Azure 上的云中运行这些模型。 这种可扩展的混合方法让企业可以快速原型化和部署智能功能。
  • 更快的性能: 与在 CPU 上运行相比,GPU 加速的认知工具包在 Azure N 系列服务器和本地可用的 NVIDIA GPU 上执行深度学习训练和推理的速度要快得多。(1) 例如,采用 Pascal 和 NVLink 互连技术的 NVIDIA DGX-1 比认知工具包的 CPU 服务器快 170 倍。
  • 更广泛的可用性: 由 NVIDIA GPU 提供支持的 Azure N 系列虚拟机目前为 Azure 客户提供预览版,并且很快就会全面推出。 Azure GPU 可用于加速训练和模型评估。 由于已有数千名客户参与了预览版,各种规模的企业已经在 Azure N 系列 VM 中的 Tesla GPU 上运行工作负载。

当连接到本地 NVIDIA DGX-1 时,NVIDIA 和 Microsoft 计划继续合作,以优化 Azure 中的 NVIDIA GPU 认知工具包,并将其作为混合云 AI 平台的一部分。

有关主题的更多信息: ai, 天蓝色, , 中国电视网, 认知工具包, 企业, 微软, NVIDIA, 英伟达 DGX-1