当前位置: 首页 » 资讯 » 科技头条 » 正文

黄仁勋凌晨发布英伟达版龙虾,Rubin Ultra算力较前代提升35倍

IP属地 中国·北京 DeepTech深科技 时间:2026-03-17 14:15:39

正在中国掀起的龙虾热,身在美国的英伟达 CEO 黄仁勋一直在关注。刚刚,黄仁勋站在 2026 年 GTC 大会的舞台上,向全场观众展示了 OpenClaw 在中国的火爆。


(英伟达)

“人们在深圳排队买龙虾,每个人都在谈论 OpenClaw。”这个在中国深圳发生的真实场景,被他用来证明 OpenClaw 已经成为人类历史上最受欢迎的开源项目,它在几周内就超过了 Linux 三十年的成就。


(英伟达)

在这场两个小时的主题演讲中,黄仁勋发布了英伟达版龙虾 Nemo Claw 企业级 AI 智能体平台、Rubin 平台、Rubin Ultra、Feynman 架构、Vera CPU 以及多款开放模型,描绘了从芯片到软件再到智能体的 AI 版图。


(英伟达)

与此同时,2026 年也是英伟达可编程着色器面世 25 周年,CUDA 面世 20 周年,黄仁勋也在演讲中做了回顾,强调正是这些技术积累让今天的 Rubin 平台成为可能。

英伟达版龙虾 Nemo Claw:集成 OpenShell 安全层,不会泄露敏感信息

在发布英伟达版龙虾之前,黄仁勋用大量篇幅介绍了 OpenClaw。他展示了这个开源项目的惊人增长:你只需要在控制台输入一行命令,OpenClaw 就会自动下载、安装、构建一个智能体,然后你可以告诉它任何需要完成的任务。

OpenClaw 本质上是一个智能体操作系统。黄仁勋说,这就像 Windows 让个人计算机成为可能,OpenClaw 让个人智能体成为可能。


(英伟达)

基于 OpenClaw,英伟达推出了企业级参考设计 Nemo Claw,黄仁勋特意说明 Nemo Claw 也是英伟达和“龙虾之父”Peter Steinberg 合作的结晶。Nemo Claw 集成了 OpenShell 安全层,提供网络护栏和隐私路由器,确保智能体在企业网络中安全运行,不会泄露敏感信息。企业的策略引擎可以连接到 Nemo Claw,实现安全的智能体执行环境。黄仁勋宣布,Black Forest Labs、Cursor、Mistral、Perplexity 等公司已加入 Nemo Tron 联盟,共同推进智能体技术的发展。

Rubin 平台:英伟达下一代 AI 加速计算架构的核心

Rubin 平台是英伟达下一代 AI 加速计算架构的核心。它由 Vera CPU、Rubin GPU 和 NVLink 72 交换系统组成。


(英伟达)

黄仁勋在现场展示了 Vera Rubin 系统实物,这个 100% 液冷的庞然大物,所有线缆都已消失,安装时间从过去的两天缩短到两小时。


(英伟达)

Vera CPU 是英伟达全新设计的数据中心 CPU,专为智能体应用打造。它是世界上唯一使用 LPDDR5 的数据中心 CPU,黄仁勋表示它“拥有无与伦比的单线程性能和每瓦性能”。黄仁勋透露,Vera CPU 单独销售肯定会成为一个数十亿美元的业务。

他直言:“我们从没想过会单独卖 CPU,但现在我们在大量销售。”据了解,Vera CPU 配合 BlueField-4 DPU 和 CX-9 SuperNIC,能够为智能体系统提供工具使用能力。智能体需要调用工具、访问文件系统、执行代码,这些都需要 CPU 的参与,而 Vera CPU 正是为这个需求而生。


(英伟达)

Rubin GPU 通过 NVLink 72 连接,实现 72 个 GPU 之间的 130TB/s 全互联带宽,整个系统作为一个巨大的 GPU 运行。黄仁勋解释说,智能体系统需要处理海量 token,需要频繁访问内存,需要快速使用工具,Rubin 平台正是为此而生。目前,第一台 Vera Rubin 系统已经在 Microsoft Azure 上运行。


(英伟达)

与 Hopper 相比,Rubin 在高端推理层级上实现了 10 倍的性能提升。黄仁勋用一张吞吐量与 token 速度的关系图向会众解释,未来每个公司的数据中心都将成为 token 工厂,而 Rubin 能让每瓦电力产生最多的 token。在一座 1GW 的数据中心里,Rubin 相比前代产品能带来 5 倍的收入提升。

黄仁勋还宣布,全球 100% 的存储行业都正在加入英伟达的存储加速生态,因为未来的存储系统将被 AI 而非人类频繁访问,需要 cuDF 和 cuVS 的加速支持。

Rubin Ultra:下一代高性能计算节点

Rubin Ultra 是 Rubin 平台的高性能版本,采用全新的 Kyber 机架设计。与 Rubin 水平插入不同的是,Rubin Ultra 采用垂直插入机架,每个 Kyber 机架能够连接 144 个 GPU 形成一个 NVLink 域。黄仁勋现场展示了 Rubin Ultra 的实物,只见他双手拎起也颇显费力,并且这个重达数百公斤的大家伙必须得小心搬动。


(英伟达)

据了解,Rubin Ultra 芯片即将流片,配合 LPDDR35 内存,并将首次融入英伟达的 NVFP 计算结构,带来数倍的性能加速。黄仁勋解释说,Rubin Ultra 解决了高吞吐量和低延迟之间的矛盾。高吞吐量需要大量浮点运算,低延迟需要巨大带宽。两者本是敌人,但是通过极致协同设计,Rubin Ultra 在最需要高性能的推理层级实现了 35 倍的提升。而如果需要更高速度的 token 生成,还可以加入 Groq 芯片协同工作,将性能推向新的高度。


(英伟达)

Feynman 架构:未来的下一代计算平台

Feynman 是英伟达规划的下一代计算平台,以著名物理学家理查德·费曼命名。它将采用 LPDDR40 内存,联合英伟达的 scale-up 技术和 Groq 团队共同构建。Feynman 将配备全新的 Rosa CPU、BlueField-5 DPU 和 CX-10 SuperNIC,同时支持铜缆和共封装光学器件的 scale-up。


(英伟达)

黄仁勋强调,Feynman 将满足未来对铜缆、光学器件和 CPO 的巨大容量需求。他说:“很多人问我,Jensen,铜缆还会重要吗?答案是肯定的。(也有人问我)Jensen,你会做光学 scale-up 吗?是的(我会)。”

另据悉,Feynman 也将是英伟达首个同时用铜缆和共封装光学器件进行 scale-up 的平台。从 Blackwell 到 Rubin 再到 Feynman,英伟达保持着两年左右一代新架构的节奏。

发布多款开放模型,位居各自领域前列

黄仁勋还发布了六大系列开放前沿模型,全部位居各自领域的排行榜前列。他强调,开放模型是世界上最大、最多样化的生态系统之一。

此次他发布的六个模型分别是:

·Nemo Tron 推理模型用于语言和视觉理解,黄仁勋表示 Nemo Tron 3 Ultra 将成为有史以来最好的基础模型。

· Cosmos 用于物理世界生成和理解,能够生成海量合成数据训练机器人。

· Alpamayo 是首个会思考和推理的自动驾驶基础模型,能让车辆解释自己的驾驶决策。

· GROOT 用于通用机器人,帮助人形机器人学习全身控制和操作。

· BioNemo 用于生物学和分子设计,加速药物发现。

· FourCastNet 用于天气预报和气候预测,根植于物理学。


(英伟达)

黄仁勋说,这些模型全部开源,开发者可以下载、微调和部署。后续,英伟达还将持续不断地改进这些模型,以实现垂直整合和水平开放。在演讲的尾声,黄仁勋预测未来的工程师将需要年度 token 预算,就像今天的基本工资一样。他认为,将来每个公司都会给工程师发放相当于基本工资一半的 token,让他们十倍地放大自己的能力。Token 将成为硅谷的招聘工具,求职者会问这份工作附带多少 token。最后,黄仁勋用一段机器人合唱的Rap结束了演讲。Olaf 机器人也走上舞台与黄仁勋互动,证明了自己在 Newton 物理引擎和 Omniverse 中学会了行走,实现了“迪士尼最萌打工人”和硬核技术的趣味联动...

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。