当前位置: 首页 » 资讯 » 科技头条 » 正文

Nvidia 推出新一代 Rubin 芯片架构,全面提升 AI 计算能力

IP属地 中国·北京 编辑:钟景轩 Chinaz 时间:2026-01-06 12:28:08

在今日的消费电子展(CES)上,Nvidia 首席执行官黄仁勋正式发布了公司全新的 Rubin 计算架构,他称其为当前人工智能硬件的尖端之作。Rubin 架构目前已经进入生产阶段,预计将在下半年加速推广。

黄仁勋表示:“Vera Rubin 旨在解决一个根本性挑战:AI 所需的计算量正在激增。” 他补充道:“今天我可以告诉大家,Vera Rubin 已经全面投入生产。”

Rubin 架构首次于2024年宣布,是 Nvidia 不断推进硬件开发的最新成果,这一努力使得 Nvidia 成为全球最具价值的公司。Rubin 架构将取代此前的 Blackwell 架构,而 Blackwell 则替代了 Hopper 和 Lovelace 架构。

Rubin 芯片已被多家主要云服务提供商所采用,包括 Nvidia 与 Anthropic、OpenAI 以及亚马逊网络服务(AWS)等公司的重要合作。Rubin 系统还将用于 HPE 的 Blue Lion 超级计算机和劳伦斯・伯克利国家实验室即将上线的 Doudna 超级计算机。

Rubin 架构以天文学家 Vera Florence Cooper Rubin 命名,由六个独立芯片共同协作构成,Rubin GPU 是其核心。该架构还针对存储和互连中的瓶颈进行了改进,新增了 Bluefield 和 NVLink 系统。此外,Rubin 架构还包含了一款新型 Vera CPU,专为自主推理设计。

Nvidia 的 AI 基础设施解决方案高级总监 Dion Harris 在电话会议中解释了新存储的优势。他提到,现代 AI 系统的缓存相关内存需求日益增加。随着新工作流的引入,例如自主 AI 或长期任务,这对键值缓存(KV cache)提出了更高的要求。他表示:“我们引入了一种新的存储层,能与计算设备外部连接,从而更高效地扩展存储池。”

根据 Nvidia 的测试,Rubin 架构在模型训练任务上的速度比前代 Blackwell 架构快三倍半,在推理任务上快五倍,计算能力可达50拍浮点运算每秒(petaflops)。新平台每瓦特支持的推理计算能力也提升了八倍。

Rubin 架构的推出正值 AI 基础设施竞争加剧之际,各大 AI 实验室和云服务提供商争相抢购 Nvidia 的芯片及其所需的运算设施。在2025年10月的一次财报电话会议上,黄仁勋预测未来五年将有3000亿到4000亿美元投入到 AI 基础设施建设中。

划重点:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。