当前位置: 首页 » 资讯 » 科技头条 » 正文

黄仁勋CES上硬菜:Vera Rubin已量产!为AI赌上6颗芯片

IP属地 中国·北京 硅星人 时间:2026-01-06 10:08:21


作者 | 周一笑
邮箱 | zhouyixiao@pingwest.com

Vera Rubin已经在全面投产。

这是黄仁勋在CES 2026上透露的最重要信息。

这场在拉斯维加斯的90分钟演讲,是黄仁勋的开年演讲,给2026年定基调的意义非常明确。而整场演讲有很强的叙事设计——他要讲的故事逻辑是这样的:

回顾2025年,scaling law还在继续,推动这个过程里开源很重要,而英伟达做了很多开源,甚至第一次自称"开源之王"(NVIDIA Leads Open Model Ecosystem),尤其是物理世界的模型其实在由它来推动——而这一切都在证明强烈的需求还在继续,泡沫不存在,所以,新的芯片架构更加重要。

这就是Vera Rubin。


“我可以告诉你们,Vera Rubin已经在全面投产了”(I can tell you that Vera Rubin is in full production),黄仁勋在舞台上宣布。这是一个全面重构的芯片架构——从CPU到GPU,到互联方式,到机柜设计,六颗芯片全部重新设计。


Vera Rubin - Six New Chips全景图

1

摩尔定律追不上AI,所以必须激进

黄仁勋给出了一组数据来解释为什么必须打破英伟达自己的规则。

过去英伟达有一条内部准则:每代架构最多只改动1-2颗芯片。但这次,他们一口气重新设计了六颗。原因很简单,摩尔定律在放缓,但AI的需求在爆炸。模型规模每年增长10倍,生成的token数量每年增长5倍,单token成本每年下降10倍。


AI 算力需求爆炸式增长

“我们每年能获得的晶体管数量,根本不可能跟上10倍更大的模型、每年5倍更多的token生成”,黄仁勋解释道,“除非我们采用激进的、极致的协同设计,否则不可能跟上这种增长速度。”

换句话说,如果继续按部就班地迭代,英伟达会被自己的客户甩在后面。

1

Rubin GPU:5倍性能只用1.6倍晶体管

六颗芯片中,Rubin GPU是核心。


NVIDIA Rubin GPU规格图

最关键的数字是这个,NVFP4推理性能达到50 PFLOPS,是Blackwell的5倍,但晶体管数量只有3360亿,仅增加了1.6倍。这意味着架构效率的巨大飞跃,而不仅仅是堆料。HBM4带宽达到22 TB/s(2.8倍),单GPU的NVLink带宽达到3.6 TB/s(2倍)。

这背后是NVFP4 Tensor Core的创新——一种新的4位浮点格式,通过硬件层面的自适应精度调节和动态transformer引擎实现。黄仁勋暗示这可能成为行业标准:“我不会惊讶于整个行业都希望我们把这个格式和架构变成行业标准。”

1

Vera CPU:88个自研核心,不是ARM公版魔改

全新的自研CPU采用88个Olympus核心,176线程,1.5TB系统内存(是Grace的3倍),1.2 TB/s的LPDDR5X带宽,2270亿晶体管。


这是英伟达第一次在数据中心CPU上如此激进地自研。Olympus核心是全新设计,不是ARM公版的修改。黄仁勋在台上展示了从Blackwell到Rubin的硬件演进,亲手拿起计算托盘——“你必须是一个身体状况很好的CEO才能干这个活”””(You have to be a CEO in really good shape to do this job),他开玩笑说。

1

硅光子上芯片:英伟达变成了网络公司

让黄仁勋特别兴奋的是Spectrum-X Co-Packaged Optics,硅光子直接封装在芯片上。


NVIDIA Spectrum-X Ethernet Co-Packaged Optics规格

这颗芯片采用TSMC的COUPE工艺,实现102.4 Tb/s的交换机基础设施,128个800 Gb/s端口,512个200 Gb/s端口,3520亿晶体管。黄仁勋说这让英伟达“成为了全球最大的网络公司”。

配合新一代NVLink 6.0,单GPU带宽达到3.6 TB/s,整个NVL72系统的互联带宽达到260 TB/s。黄仁勋的比喻是,“这是全球互联网带宽的两倍”,全球互联网总带宽大约是100 TB/s。


1

KV Cache成了新瓶颈,BlueField-4来解决

黄仁勋特别强调了一个正在浮现的问题:context memory正在成为新的瓶颈。


随着上下文长度增长、多轮对话累积、并发用户增加,KV cache的存储需求在爆炸。BlueField-4 DPU就是为了解决这个问题,800G Gb/s的SmartNIC和存储处理器,内置64核Grace CPU,相比上代在网络、计算、内存带宽上分别提升2倍、6倍、3倍。


配合新的Context Memory Storage Platform,可以为每个节点提供150TB的KV cache存储。黄仁勋称之为“完全革命性的”。


1

NVL72:一个机柜220万亿晶体管

六颗芯片组合成Vera Rubin NVL72系统。


这是一个完整的机柜级计算单元:3.6 EFLOPS的FP4推理算力(5倍于Blackwell),2.5 EFLOPS的FP4训练算力(3.5倍),54TB的LPDDR5X容量(3倍),20.7TB的HBM容量(1.5倍),1.6 PB/s的HBM4带宽(2.8倍),260 TB/s的Scale-Up带宽(2倍)。整个机柜包含220万亿个晶体管。


1

组装一个计算节点:从2小时到5分钟

除了芯片本身,Vera Rubin在系统工程上也有大量创新。


NVIDIA Vera Rubin Compute Tray

新的计算托盘设计是“No Cables, No Hoses, No Fans”,无线缆、无水管、无风扇。过去组装一个计算节点需要2小时,现在只需要5分钟。黄仁勋在台上亲自演示,把托盘像抽屉一样滑入机柜。

整个系统100%液冷,使用45°C的热水,不需要冷水机。"今天这台机器重2.5吨,因为他们发货的时候忘了把水放掉",黄仁勋开玩笑说。整机包含2英里的铜缆和5000根线缆,但因为采用了新的无线缆托盘设计,实际部署时的复杂度大大降低。

虽然性能是Blackwell的5倍,但热设计保持在同一水平,这意味着在相同的数据中心功率预算下,可以获得5倍的算力提升。


1

1/4的GPU,1/10的成本

黄仁勋用DeepSeek++(对未来超大规模开源模型的一种代称)和Kimi K2Thinking展示了三组性能对比。


训练效率:以10万亿参数模型、100万亿token、1个月训练周期为基准,Rubin只需要Blackwell 1/4的GPU数量。工厂吞吐量:从Hopper到Blackwell是10倍提升,从Blackwell到Rubin再提升10倍。Token成本:Rubin是Blackwell的1/10。

这组数据的含义很清晰,对于训练大模型的公司来说,Rubin意味着用更少的硬件、更低的成本、更快的速度完成同样的任务。

1

时间表:一年一代,但这次跨度更大

Vera Rubin 2026年出货,现已全面投产。Rubin Ultra NVL576在2027年下半年,性能是Rubin的4倍。Feynman在2028年,已预告。

黄仁勋维持了英伟达“一年一架构”的节奏,但这次的迭代幅度远超以往。


1

Alpamayo:物理AI的ChatGPT时刻

算力基础设施最终是为了让AI理解和操控物理世界。除了造“大脑”,英伟达也在教AI控制“身体”,演讲中另一个值得注意的发布是Alpamayo。


NVIDIA Alpamayo架构

这是一个开源视觉-语言-动作模型(VLA),专为自动驾驶设计,支持chain-of-thought推理来处理边缘场景。输入是多摄像头视频、自车运动历史、可选用户指令,输出是驾驶决策、因果推理、轨迹规划。

演示视频中称之为“物理AI的ChatGPT时刻几乎就要到来了”(The ChatGPT moment for physical AI is nearly here)。首个商用落地是Mercedes-Benz CLA,2026年Q1在美国上市。

值得注意的是,英伟达不仅开源了模型,还开源了训练数据。“我们不仅开源模型,还开源用来训练这些模型的数据。因为只有这样,你才能真正信任这些模型是怎么来的。”

黄仁勋演讲PPT里用到了很多中国开源模型的数据:


经典场面:黄仁勋和中国开源模型们

不过,他最终要强调的是这张:


英伟达才是开源第一。

1

一个信号

回看整场演讲的结构,黄仁勋想传递的信号很明确,AI的需求还在爆炸式增长,scaling law没有撞墙,英伟达的护城河不仅是芯片设计能力,更是整个系统级的极致协同优化能力。

当摩尔定律放缓时,只有通过“激进的、极致的协同设计”,例如六颗芯片同时重新设计,才能跟上AI发展的速度。而且这一切都不是空话,Vera Rubin已经在全面投产,不是路线图,不是期货,是现在就在产线上跑。2026年,云厂商和AI公司将拿到比Blackwell强5倍的新硬件。

黄仁勋的最后一张幻灯片这样写道:

英伟达是为所有AI提供的那个独一无二的平台。


这个开年演讲相比过往黄仁勋的演讲要“干”很多,看来2026年黄仁勋不讲故事了,要直接上干货,上硬菜了。


点个爱心,再走 吧

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。