NVIDIA Grace CPU 超级芯片

云和数据中心解决方案

NVIDIA CPU 平台

专为 AI 工厂打造。

概览

新一代数据中心的引擎

NVIDIA CPU 平台为现代 AI 基础设施和 AI 工厂奠定了基础。作为加速计算的宿主,协调数据搬运、分析、存储和系统执行,以确保基础设施高效运行。NVIDIA Grace™ 为超大规模云、边缘和电信环境提供性能和能效,而 NVIDIA Vera 专为代理式 AI 系统而设计,可加速支持大规模 AI 工厂的数据和执行流程。

NVIDIA Vera CPU

NVIDIA Vera CPU 专为新一代代理式 AI 系统而设计,能够与 NVIDIA GPU 无缝搭配用于 AI 工厂,或在后训练和代理式流程、分析、云、编排以及存储工作负载中独立运行。

优势

技术突破

使用 NVLink-C2C 加速 CPU 与 GPU 互连

第二代 NVIDIA NVLink™ 芯片到芯片 (C2C) 互连提供 1.8 TB/s 的双向带宽,比 PCIe Gen 6 快 7 倍,让用户专注于开发而不是内存管理。

利用 LPDDR5X 发挥高能效 CPU 内存的优势

NVIDIA CPU 使用带有纠错码 (ECC) 的 LPDDR5X 内存来实现服务器级可靠性,同时将能效提高 5 倍,非常适合云、企业和高性能计算 (HPC) 工作负载。

利用先进的 CPU 架构提升性能和效率

NVIDIA Vera 采用定制的 Olympus Arm® 兼容 CPU 核心和 NVIDIA 可扩展一致性结构 (SCF),提供出色的单线程性能和可预测的扩展能力。NVIDIA Grace 采用基于 Arm 的高性能 CPU 核心及 SCF,为云、边缘和数据中心工作负载提供高效性能。

多种配置,适用于加速负载和 CPU 工作负载

NVIDIA CPU 平台支持多种系统设计,从用于加速计算的 NVIDIA Vera Rubin 和 Grace Blackwell 等紧密集成的 CPU–GPU 架构,到用于云、企业、HPC 和边缘部署的独立单插槽和双插槽 CPU 服务器。

产品

浏览 CPU 产品阵容

NVIDIA Grace CPU

为现代数据中心带来突破性的 CPU 性能和效率。

NVIDIA Grace CPU 超级芯片

Grace CPU 超级芯片由两个 Grace CPU 组成,这两个 CPU 通过 NVIDIA NVLink-C2C 以 900 GB/s 的速度耦合连接。它将 144 个 Arm Neoverse V2 核心封装到单个模块中,并配备服务器级 LPDDR5X 显存,可提供高达 1 TB/s 的显存带宽。

NVIDIA Grace CPU C1

NVIDIA Grace CPU C1 是一个单插槽高性能服务器平台,在性能和带宽方面无损兼顾。它针对包括超大规模云、内容交付网络 (CDN)、存储、电信以及其他高性能边缘平台在内的可扩展平台和边缘平台进行了优化。


NVIDIA CPU 和 GPU

连接 NVIDIA CPU 和 GPU,实现大规模 AI 和 HPC 应用。

NVIDIA GH200 Grace Hopper 超级芯片

NVIDIA Grace Hopper™ 超级芯片通过 NVLink-C2C 将 Grace CPU 与 Hopper GPU 架构相结合,为加速 AI 和 HPC 工作负载提供统一的内存空间。

NVIDIA GB200 NVL4

NVIDIA GB200 NVL4 开辟了融合式 HPC 和 AI 的未来,通过四个由 NVLink 桥连接的 NVIDIA Blackwell GPU 和两个由 NVLink-C2C 连接的 NVIDIA Grace CPU,提供革命性的性能。它与液冷 NVIDIA MGX™ 模块化服务器兼容,在科学计算、科学 AI 训练和推理应用方面的性能比上一代产品提升 2 倍。

下载资源

详细了解 NVIDIA Grace

面向新工业革命的 AI 工厂

了解 AI 工厂如何生成 Token 来助力构建充满无限可能的未来——由人类的智慧和 NVIDIA 加速推进。

NVIDIA Grace CPU 超级芯片

面向现代数据中心的突破性 CPU,与领先的传统 CPU 相比,在相同功耗下提供两倍的性能。

NVIDIA 首席执行官黄仁勋的 GTC24 主题演讲

观看 NVIDIA 首席执行官黄仁勋的 GTC 主题演讲,掌握 AI 进展的最新动态,洞见未来发展趋势。

探索更多资源

后续步骤

及时了解 NVIDIA 新闻

注册即可获取 NVIDIA 的最新资讯、更新及更多内容。