NVIDIA 和 Google Cloud 强强联手,让企业组织无需大量支出或执行复杂的基础架构管理,即可更快获得结果,解决数据难题。使用 NVIDIA GPU 加速深度学习、分析、科学仿真及其他高性能计算 (HPC) 工作负载,同时结合使用 NVIDIA® RTX 虚拟工作站和 Google Cloud,随时随地加速渲染、仿真和图形密集型工作负载。
NVIDIA AI Enterprise 是一款端到端的安全云原生 AI 软件套件,可以助力企业组织在提高运营效率的同时解决新难题。该套件可以加速数据科学工作流,简化预测性 AI 模型的开发、部署和管理,从而实现基本流程的自动化,并快速从数据中获得见解。内含丰富的全栈软件库,其中包括 AI 解决方案工作流、框架、预训练模型和基础架构优化。全球企业级支持和定期安全审查助力确保业务的连续性,还能确保 AI 项目取得成功并保持正常运行。 Google Cloud 上的 NVIDIA AI Enterprise 市场产品包括 VMI,该产品可提供经过优化的标准运行时,能实现访问 NVIDIA AI Enterprise 软件的轻松访问,并确保云端与本地 AI 架构之间的开发兼容性。 一次开发,随处运行。
Google Cloud Anthos 是由 Kubernetes 提供支持的应用现代化改造平台。Anthos 面向希望寻求混合架构和需要处理大量本地需求的客户,旨在实现云端服务的轻松入门,同时兼顾本地解决方案的安全性。Anthos 以混合平台的形式提供,可在云端、本地和边缘环境中处理 NVIDIA GPU 工作负载。
Anthos 现可用于裸机和 vSphere 虚拟化部署。支持 NVIDIA DGX™ 以及配备 NVIDIA T4、V100 或 A100 Tensor Core GPU 的服务器系统。您可以根据您的应用需求和服务器基础架构选择最佳配置,从而实现理想部署。
查看基于 NVIDIA GPU 的 Google Cloud Anthos 用户指南
NVIDIA DGX A100 是世界精尖的 AI 系统,专为解决企业的独特需求而构建。现在,企业组织可以构建混合 AI 云,以便从现有 DGX 本地 AI 架构以及 Google Cloud 内部署的 NVIDIA GPU 中轻松获取计算能力。凭借云端 AI 计算的简易性和灵活性,基于 NVIDIA DGX A100 的 Google Cloud Anthos 可帮助企业组织完善其专用 DGX 系统基础架构与生俱来的卓越性能。
阅读博文:How to Avoid Speed Bumps and Stay in the AI Fast Lane with Hybrid Cloud Infrastructure(如何借助混合云基础架构规避前进障碍,并在 AI 领域始终保持快速发展)(2020 年 11 月 30 日)
NVIDIA® A100 可针对 AI、数据分析和高性能计算 (HPC),在各种规模上实现出色的加速,应对非常棘手的计算挑战。作为 NVIDIA 数据中心平台的引擎,A100 可以高效地扩展到数千个 GPU,也可以利用 NVIDIA 多实例 GPU (MIG) 技术划分为七个 GPU 实例,以加速各种规模的工作负载。第三代 Tensor Core 可实现各种精度的加速,从而支持各种工作负载,缩短分析时间和上市时间。
Altair ultraFluidX™ 上的 A100 性能(PDF 版,503KB)
收听 Kubernetes Podcast from Google,了解加速器和 GPU 的相关资讯(31 分钟)
NVIDIA A100
收听 Google 播客,了解 NVIDIA Bryan Cantanzaro 对 A100 的讲解(42 分 46 秒)
NVIDIA T4
收听 Google 播客,了解 NVIDIA Ian Buck 和 Kari Briski 对 T4 的讲解(35 分 56 秒)
NVIDIA V100
通过 NGC,您可轻松访问预集成和由 GPU 优化的容器,将其用于深度学习软件、高性能计算应用和高性能计算可视化工具,充分利用 Google Cloud 上的 NVIDIA A100、V100、P100 和 T4 GPU。NGC 还提供预训练模型和脚本,用于为分类、检测、文本转语音等常见用例构建优化的模型。现在,您只需几分钟即可部署生产质量级、GPU 加速的软件。
NVIDIA TensorRT™ 是一款高性能深度学习推理优化器和运行时环境,可为推理应用实现低延迟和高吞吐量。优化神经网络模型、对较低精度进行高准确度的校准,并为 Google Cloud 部署模型。并且由于其与 TensorFlow 紧密集成,您可以借助 TensorRT 强大的优化功能获得 TensorFlow 的灵活性。
Google Kubernetes Engine 中的 NVIDIA GPU 通过扩展至数百个 GPU 加速的实例,大幅加快计算密集型应用(例如机器学习、图像处理和金融建模)的处理速度。通过将 GPU 加速的应用打包到容器中,您可以在需要时随时享用 Google Kubernetes Engine 和 NVIDIA A100、V100、T4、P100 或 P4 GPU 的超强处理能力,而无需管理硬件,甚至都不需要管理虚拟机 (VM)。
用于 GPU 加速图形的 NVIDIA RTX 虚拟工作站通过从云端访问要求苛刻的专业设计和工程应用,使创意和技术专业人员能够随时随地更大限度地提高工作效率。设计师和工程师现在可以直接前往 Google Cloud 或 Google Cloud 市场,使用 NVIDIA T4、V100、P100 和 P4 GPU 灵活运行虚拟工作站,其中包括对 Windows Server 2016、Windows Server 2019 和 Ubuntu 18.04 的支持。
AI 是我们这个时代极其重要的技术发展,具有造福社会的巨大潜力。随着全球领先的云服务提供商纷纷借助 NVIDIA GPU 和软件在全球部署卓越的 AI 平台,我们将见证机器、自动驾驶交通运输、精密制造等领域的重大突破。
– NVIDIA 创始人兼首席执行官黄仁勋
NVIDIA 是 Google Cloud 的战略合作伙伴,我们很高兴他们能代表客户进行创新。
– Google Cloud 首席软件工程师 Tim Hockin
具有 Kubernetes 的 [GPU] 可以为企业级机器学习提供功能强大、高成本效益和灵活的环境。Ocado 选择 Kubernetes 的原因在于其可扩展性、可移植性、强大的生态系统和大型的社区支持等。其操作也非常简单,并且能够连接 GPU,相对于传统的 CPU 而言是一次巨大的飞跃。
– Ocado 软件研究工程师 Martin Nikolov