NVIDIA Grace CPU

专为解决全球最富挑战的计算难题

新一代数据中心的引擎

随着模型的复杂性激增,加速计算和能源效率对于满足 AI 需求变得至关重要。NVIDIA Grace™ CPU 是一款突破性的 Arm® CPU,具有超强的性能和效率。它可以与 GPU 紧密结合以增强加速计算能力,也可以作为强大而高效的独立 CPU 进行部署。NVIDIA Grace CPU 是新一代数据中心的基础,可采用多种配置来满足不同数据中心的需求。

深入了解 Grace 系列芯片

NVIDIA GB200 NVL72

NVIDIA GB200 Grace Blackwell 超级芯片将两个 NVIDIA Blackwell Tensor Core GPU 和一个 Grace CPU 相结合,可以扩展到含有 72 个 GPU 通过 NVIDIA® NVLink® 连接的大型系统 GB200 NVL72,为大语言模型提供速度提高 30 倍的实时推理。

NVIDIA Grace Hopper 超级芯片

The NVIDIA Grace Hopper™ 超级芯片通过 NVIDIA® NVLink®-C2C 结合Grace 和 Hopper 架构,为加速 AI 和高性能计算 (HPC) 应用提供了 CPU+GPU 内存一致性模型。

NVIDIA Grace CPU 超级芯片

NVIDIA Grace CPU 超级芯片采用 NVLink - C2C 技术,可提供 144 个 Arm® Neoverse V2 核心和 1 TB/s 的内存带宽。

获取 NVIDIA 超级芯片的最新消息

了解 NVIDIA Grace CPU 如何为新型大容量超级计算机提供支持。

用于实时万亿参数推理的 NVIDIA GB200 NVL72

NVIDIA GB200 NVL72 Grace Blackwell 超级芯片是为新一代 AI 打造的架构,可为实时万亿参数语言模型提供强大动力。

NVIDIA 推出新一代 GH200 Grace Hopper 超级芯片平台

作为一款开创先河的 HBM3e 处理器,它可提供惊人的内存和带宽,为加速计算和生成式 AI 时代再添强劲助力。

NVIDIA 与软银公司合作借助生成式 AI 重塑 5G 数据中心

基于 Arm 的 NVIDIA Grace Hopper™ 超级芯片、BlueField® - 3 DPU 和 Aerial™ SDK 为生成式 AI 和 5G/ 6G 通信提供革命性架构。

高能效超级计算机的新浪潮

了解由 NVIDIA Grace CPU 驱动的用于气候科学、医学研究等领域的最新节能 Arm 超级计算机。

NVIDIA GH200 Grace Hopper 超级芯片已全面投产

配备 GH200 的系统加入全球系统制造商正在推出的 400 多种系统配置,以满足对生成式 AI 的激增需求。

借助 NVIDIA MGX 更快地创建加速数据中心

了解 QCT 和 Supermicro 如何采用模块化设计,为各种 AI、高性能计算 (HPC) 和 5G 应用快速且经济高效地构建多个数据中心配置。

详细了解最新技术创新

借助 NVLink - C2C 加速 CPU 到 GPU 的连接

解决重大的 AI 和 HPC 问题需要高容量和高带宽内存 (HBM)。第四代 NVIDIA NVLink-C2C 可在 NVIDIA Grace CPU 和 NVIDIA GPU 之间提供 900 GB/s 的双向带宽。此项互连技术可提供统一、缓存一致性的内存地址空间,后者将系统和 HBM GPU 显存相结合,能够简化可编程性。CPU 和 GPU 之间这种一致、高带宽的连接是加速解决未来复杂问题的关键。

使用 LPDDR5X 处理高带宽显存

NVIDIA Grace 是率先通过纠错码 (ECC) 等机制,利用具有服务器级可靠性的 LPDDR5X 内存来满足数据中心需求的服务器 CPU,其内存带宽为当今常规服务器内存的 2 倍,能效更是高达后者的 10 倍。NVIDIA Grace LPDDR5X 解决方案与大型高性能最后一级缓存相结合,为超大模型提供必要的带宽,同时降低系统功耗,以更大限度提高其处理新一代工作负载的性能。

利用 Arm Neoverse V2 内核和 NVIDIA 可扩展一致性结构提升性能和效率

随着 GPU 并行计算能力的不断提高,仍然可以通过在 CPU 上运行的序列任务来控制工作负载。快速高效的 CPU 是系统设计的关键组件,可以更大限度地加速工作负载。NVIDIA Grace CPU 集成了 Arm Neoverse V2 核心与 NVIDIA 可扩展一致性结构,能够以节能高效的设计实现高性能,使科学家和研究人员更轻松地开展其毕生事业。

利用 HBM GPU 显存为生成式 AI 提供强效助力

生成式 AI 需要大量显存和计算。NVIDIA GB200 超级芯片使用 380GB 的 HBM 显存,提供的 GPU 显存带宽超过 NVIDIA H100 Tensor Core GPU 的 4.5 倍。Grace Blackwell 中的高带宽显存通过 NVLink-C2C 连接到 CPU 内存,可为 GPU 提供近 860GB 的快速访问显存,从而为处理全球复杂度数一数二的生成式 AI 和加速计算工作负载提供所需的显存容量和带宽。

更多资源

精选 Grace 会议

NVIDIA 通过性能调整指南、开发者工具和库为 NVIDIA Grace 提供深度支持。