当前位置: 首页 » 资讯 » 科技头条 » 正文

黄仁勋CES预言:另一个“时刻”快到来了

IP属地 中国·北京 字母榜 时间:2026-01-06 12:20:13



迟到10分钟,黄仁勋身穿标志性的黑色夹克,走上拉斯维加斯国际消费电子展(CES)的舞台。

黄仁勋总结刚刚走过的一年,尤其提到了开源的崛起起到的催化剂作用,而DeepSeek R1的出现意外地推动了整个行业的一年。

整个演讲持续一个半小时,比起几年前宣布开启“AI的iPhone时刻”的震撼感,如今的英伟达听起来更像是兢兢业业的世界“基础设施部”——这是芯片,这是机架,这是网络,这是软件……哦对了,你们总说的那些机器人和汽车,理论上都要跑在这一整套东西之上。



这其中,今年CES的一条清晰主线,是对“全栈控制”的执念,尤其集中在存储,以及英伟达反复强调的下一个瓶颈:具备代理能力(agentic)的AI。

它们需要更长的上下文、更大的内存、更强的网络,以及更少诸如“现实世界跑不起来”的借口。

英伟达给出的说法是,“AI工厂”已经成为一个新的产品类别,而他们打算出售的不只是设备,而是蓝图、机器、操作系统,以及其余所有组成部分。

黄仁勋所公布的很多内容,其实已经流传了好几个月——Blackwell之后的Rubin架构、作为DPU跃迁的BlueField-4、英伟达号称“开放”的Nemotron模型家族、作为安全框架的Halos。

真正的新意在于打包方式。英伟达正在把这条路线图压缩成一个完整论点:六款芯片,一个平台,再加上网络和“上下文内存”的底层管道,目的是让长时序智能体不再轻易卡死。

01

基础设施

在硬件层面,最核心的故事是:Rubin正在被拆解成可直接交付的“积木式”组件。

英伟达发布了一套由六个部分组成的Rubin“平台”——包括Rubi和Rubin Ultra两种规格的GPU与CPU,以及NVLink 6交换芯片和ConnectX-9 SuperNIC。

所有关于性能和“单token成本”的说法,都是建立在这种全系统协同设计之上,目标只有一个:压低“智能”的成本。

在系统层面,英伟达将Vera Rubin NVL72定位为机架级的主力产品(72颗GPU、36颗CPU),而Rubin Ultra NVL288则是体量更大的后续版本(288颗GPU、144颗CPU)。



同时,英伟达还把Rubin纳入DGX品牌的“AI工厂”体系中,将用于训练的DGX Rubin NVL72与用于推理的DGX Rubin NVL8组合成更标准化、更即插即用的算力单元。

英伟达表示,基于Rubin的产品将于2026年下半年通过合作伙伴上市。

这里有两项基础设施层面的“外挂”在默默发挥关键作用。

第一,英伟达正把网络当作一项一等性能特性来强调,主推Spectrum-X以太网光子交换系统,并给推理性能和能效都贴上了“提升五倍”的标签。

第二,英伟达试图把“长上下文”塑造成一次基础设施采购决策,推出了名为“推理上下文内存(inference context memory)”的存储平台,用来扩展具备代理能力的AI的上下文窗口。

如果说Rubin的潜台词是“这条路线图真的行”,那么围绕它的这套底层管道系统的潜台词就是:“下一个利润池,将在GPU之外。”

02.

开放模型

英伟达的“开放模型”叙事,与其说是出于意识形态上的觉醒、加入开源运动,不如说是一种更务实的策略:

用“免费样品”把开发者吸引进自家生态——而这些样品被精心打包,目的就是在英伟达基础设施上跑得最好。

正如英伟达生成式AI与软件副总裁Kari Briski所说,这是一次“扩展”。

公司将其包装成一个整体方案:全新的Nemotron-3模型(包括70B、34B和8B三种规模的Llama Nemotron-3变体),再加上一批新数据集和工具,帮助团队构建垂直领域智能体,并通过英伟达的技术栈完成部署。

“在2025年,英伟达是Hugging Face上最大的贡献者之一——发布了650个开放模型和250个开放数据集。”Briski表示。

核心意思很明确:英伟达希望成为你开始的地方。

英伟达称,其正在发布Nemotron-CC,这是一个多语言预训练语料库,覆盖140多种语言,总规模达1.4万亿token,被定位为构建和微调模型的“开放”基础层。

公司同时强调了一套名为“Granary”的指令数据集,目标是让模型在企业级任务上“开箱即用”。

03

物理AI与机器人

英伟达不断把“物理AI”描述为一个分水岭时刻:当“智能体”不再只是能聊天,而是真正具备能力。也就是说,感知、推理和行动需要被放进同一个闭环里。

这意味着需要三块打底的积木:更好的仿真、更好的机器人模型,以及更好的“运动(mobility)”模型。

黄仁勋在一份新闻稿中表示:“机器人领域的ChatGPT时刻已经到来。”

他认为,那些“能够理解现实世界、进行推理并规划行动”的模型,正在打开“全新的应用场景”。

也正因如此,汽车行业或许成了英伟达“全栈”叙事的真正试金石——这是一个“演示”和“落地”之间隔着监管、责任风险,以及十多年反复受挫的乐观预期的领域。



英伟达称,其用于辅助驾驶的Drive AV平台已“进入量产阶段”,将搭载于2026款梅赛德斯-奔驰CLA车型。该车型在2025年获得了Euro NCAP的最高安全评分。

英伟达表示,这款车具备“先进的L2级自动驾驶能力”,支持“点到点的城市导航”,包括“从地址到地址”的完整行程;同时将Hyperion定位为提供安全冗余的计算与传感器架构。公司还称,该车型将在今年年底前具备在美国道路上脱手驾驶的能力。

更大的赌注在后面。

“我们相信,物理AI和机器人最终将成为全球最大的消费电子品类,”英伟达汽车业务副总裁Ali Kani表示,“所有会移动的东西,最终都会实现完全自动化,由物理AI驱动。”

Kani介绍称,Alpamayo是英伟达面向自动驾驶推出的一整套“开源AI模型、仿真工具和物理AI数据集”家族,目标是加速“基于推理、以安全为核心的物理AI开发”。

英伟达同时发布了1700小时的驾驶数据,并配套一个开源仿真框架,将其定位为迈向L4级自动驾驶的入门工具包。

在机器人方面,英伟达重点提到了Isaac GR00T N1.6——一个面向机器人技能的开放式“视觉–语言–行动”推理模型,以及用于大规模测试策略的评估框架Isaac Lab Arena。



公司还提及Cosmos Reason 2,这是一个旨在提升物理推理能力的模型,而整个Cosmos系列则被定位为生成合成数据、用于训练物理AI的工具链。

与此同时,英伟达将Jetson T4000定位为机器人的边缘计算平台,并与同一条从训练到部署的流水线相连,最终回流至DGX级基础设施。

英伟达正在努力让“机器人技术栈”看起来像“软件技术栈”:在它能生成的世界里训练,在它能变化的世界里测试,并最终部署在它自己出售的硬件之上。

从更宏观的角度看,英伟达在CES上释放的信息在这三大板块中高度一致:未来属于“流水线”,而英伟达希望这条流水线的每一个环节——算力、网络、存储、安全、仿真——都运行在它已经出售的产品之上。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。