8月26日消息,在英伟达(NVIDIA)于下周在美国召开的 Hot Chips 会议上披露其 Blackwell GPU 架构的细节之前,英伟达已经提前曝光了其更详细的芯片路线图。
在今年6月,英伟达CEO黄仁勋在中国台湾大学综合体育馆发表主题为“开启产业革命的全新时代”的演讲当中,披露了英伟达将会在2025年推出增强版的Blackwell Ultra GPU(8S HBM3e 12H)。在2026年,英伟达还将推出再下一代的Rubin GPU,将集成8颗HBM4,随后在2027年,将推出将集成12颗HBM4版本的Rubin Ultra GPU的路线图规划。
近期,英伟达最新曝光的信息显示,英伟达将在 2026年推出名为 Vera 的新 CPU ,以及具有 288GB HBM3e 内存的 Blackwell 版本,称为 Blackwell Ultra。2026年将会推出GPU 架构Rubin 将会集成HBM4内存,在2027年,将推出更高HBM容量的Rubin Ultra GPU。
“当然,在 Blackwell Ultra 中也将增加计算量。我们不会透露具体数量,但我们确实在 Blackwell Ultra 中拥有更多的计算能力”,英伟达加速计算总监 Dave Salvator 说。
Dave Salvator 表示,“然后,随着我们进入 2026 年,我们将进入新的 Ruben GPU架构,在 CPU 方面,我们将在 2026 年的时间框架内从 Grace 转向 Vera CPU 架构,然后你也会看到我们网络产品的一些进展。这一点也很重要,因为我们归根结底是一家数据中心平台公司,需要所有这些组件来实现该平台。。
JEDEC 固态技术协会 (JEDEC Solid State Technology Association) 的高性能存储器 HBM4 标准即将完成。与 HBM3 相比,HBM4 将每个堆栈的通道数增加一倍,并且物理占用空间更大。为了支持设备兼容性,该标准确保单个控制器可以在需要时同时与 HBM3 和 HBM4 配合使用。不同的配置将需要不同的中介层来适应不同的封装。HBM4 将指定 24 Gb 和 32 Gb 层,并可选择支持 4 层、8 层、12 层和 16 层 TSV 堆栈。该委员会已就高达 6.4 Gbps 的速度箱达成初步协议,并正在讨论更高的频率。
英伟达的高级工程师将展示为 Blackwell 平台提供支持的最新进展,以及对数据中心液体冷却和芯片设计 AI 代理的研究。
GB200 NVL72 液冷机架系统连接 72 个 Blackwell GPU 和 36 个 Grace CPU。
在下周的Hot Chips 会议上,英伟达架构总监 Ajay Tirumala 和 Raymond Wong 将介绍该平台,并解释这些技术如何协同工作,为 AI 和加速计算性能提供新标准,同时提高能源效率。
英伟达数据中心冷却和基础设施总监 Ali Heydari 将展示混合冷却数据中心的几种设计。
一些设计使用液体冷却装置改造现有的风冷数据中心,提供了一种快速简便的解决方案,为现有机架添加液体冷却功能。其他设计需要安装管道,以便使用冷却分配装置或将服务器完全浸没在浸入式冷却罐中进行直接到芯片的液体冷却。尽管这些选项需要更大的前期投资,但它们可以节省大量能源消耗和运营成本。
Heydari 还将分享他的团队的工作,作为 COOLERCHIPS 的一部分,COOLERCHIPS 是美国能源部的一项计划,旨在开发先进的数据中心冷却技术。作为该项目的一部分,该团队正在使用 Omniverse 平台创建基于物理的数字孪生,这将帮助他们对能耗和冷却效率进行建模,以优化其数据中心设计。
编辑:芯智讯-林子 来源:eenews europe