当前位置: 首页 » 资讯 » 科技头条 » 正文

这不是显卡,是一座2吨重的AI工厂

IP属地 中国·北京 华尔街见闻官方 时间:2026-01-06 12:18:27

美东时间1月5日周一,英伟达在CES展会推出新一代Rubin AI平台,标志着其在人工智能(AI)芯片领域保持年度更新节奏。


黄仁勋在展会上宣布Vera Rubin已全面投产,该平台重量近2吨,通过六款新芯片的集成设计,在推理成本和训练效率上实现大幅跃升,实现每秒千亿级别的 AI 运算,堪称一座真正的人工智能工厂。

英伟达还宣布开源其首个推理 VLA (视觉-语言-动作) 模型Alpamayo 1。该模型旨在打造能在意外情况下"思考"解决方案的车辆,采用 100 亿参数架构,使用视频输入生成轨迹和推理过程。

黄仁勋称,首款搭载英伟达技术的汽车将第一季度在美上路,第二季度在欧洲上路,下半年在亚洲上路。

英伟达还发布了多个开源模型、数据和工具,如用于代理AI的英伟达Nemotron家族、用于物理AI的Cosmos平台、用于机器人的英伟达Isaac GR00T以及用于生物医学的英伟达Clara。


英伟达发布新一代Rubin平台,性能提升5倍,已全面投产拟下半年发货

美东时间5日周一,英伟达CEO黄仁勋在拉斯维加斯表示,六款Rubin芯片已从合作制造方处回厂,并已通过部分关键测试,正按计划推进。

他指出"AI竞赛已经开始,所有人都在努力达到下一个水平"。英伟达强调,基于Rubin的系统运行成本将低于Blackwell版本,因为它们用更少组件即可实现相同结果。

微软和其他大型云计算提供商将成为下半年首批部署新硬件的客户。

微软的下一代Fairwater AI超级工厂将配备英伟达Vera Rubin NVL72机架级系统,规模可扩展至数十万颗英伟达Vera Rubin超级芯片。CoreWeave也将是首批提供Rubin系统的供应商之一。

该平台的推出正值华尔街部分人士担忧英伟达面临竞争加剧,并怀疑AI领域的支出能否维持当前速度。但英伟达保持长期看涨预测,认为总市场规模可达数万亿美元。

性能提升5倍,推理token生成成本降低至多10倍

据英伟达公告,Rubin平台的训练性能是前代Blackwell的3.5倍,运行AI软件的性能则提升5倍。与Blackwell平台相比,Rubin可将推理token生成成本降低至多10倍,训练混合专家模型(MoE)所需GPU数量减少4倍。

新平台配备的Vera CPU拥有88个核心,性能是其替代产品的两倍。这款CPU专为代理推理设计,是大规模AI工厂中能效最高的处理器,采用88个定制Olympus核心、完整Armv9.2兼容性和超快NVLink-C2C连接。

Rubin GPU配备第三代Transformer引擎,具备硬件加速自适应压缩功能,可提供50 petaflops的NVFP4计算能力用于AI推理。每个GPU提供3.6TB/s的带宽,而Vera Rubin NVL72机架则提供260TB/s带宽。

芯片测试进展顺利,广泛生态系统支持

黄仁勋披露,全部六款Rubin芯片已从制造合作伙伴处返回,并已通过显示其可按计划部署的关键测试。这一表态表明英伟达正维持其作为AI加速器领先制造商的优势地位。

该平台包含五大创新技术:第六代NVLink互连技术、Transformer引擎、机密计算、RAS引擎以及Vera CPU。其中第三代机密计算技术使Vera Rubin NVL72成为首个提供跨CPU、GPU和NVLink域数据安全保护的机架级平台。

第二代RAS引擎横跨GPU、CPU和NVLink,具备实时健康检查、容错和主动维护功能,以最大化系统生产力。机架采用模块化、无线缆托盘设计,组装和维护速度比Blackwell快18倍。

英伟达表示,包括亚马逊的AWS、谷歌云、微软和甲骨文云在2026年将率先部署基于Vera Rubin的实例,云合作伙伴CoreWeave、Lambda、Nebius和Nscale也将跟进。

OpenAI CEO Sam Altman表示:“智能随计算扩展。当我们增加更多计算时,模型变得更强大,能解决更难的问题,为人们带来更大影响。英伟达Rubin平台帮助我们持续扩展这一进展。”

Anthropic联合创始人兼CEO Dario Amodei称,英伟达“Rubin平台的效率提升代表了能够实现更长记忆、更好推理和更可靠输出的基础设施进步”。

Meta CEO扎克伯格表示,英伟达的“Rubin平台有望带来性能和效率的阶跃式变化,这是将最先进模型部署给数十亿人所需要的”。

英伟达还称,思科、戴尔、惠普企业、联想和超微预计将推出基于Rubin产品的各类服务器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI实验室正期待利用Rubin平台训练更大型、更强大的模型。

评论称,英伟达今年比往年更早披露新产品的细节,这是该司保持行业依赖其硬件的举措之一。因为英伟达通常在每年春季加州圣何塞举行的GTC活动上深入介绍产品细节。


物理AI的ChatGPT时刻!英伟达“内驱”无人驾驶汽车将至,将于一季度在美国上路

黄仁勋还宣布开源其首个推理 VLA (视觉-语言-动作) 模型Alpamayo 1,使汽车能够在真实世界中进行"推理",这标志着英伟达在无人驾驶领域迈出关键一步。

这一举措旨在加速安全的自动驾驶技术开发。该模型通过类人思维方式处理复杂驾驶场景,为解决自动驾驶长尾问题提供新路径。


黄仁勋表示,首款搭载英伟达技术的汽车将于第一季度在美国上路,第二季度在欧洲上路,下半年在亚洲上路。

英伟达免费开放Alpamayo模型,允许潜在用户自行对模型进行重新训练。该模型旨在打造能在意外情况下"思考"解决方案的车辆,例如交通信号灯故障等场景。车载计算机将分析来自摄像头和其他传感器的输入,将其分解为步骤并提出解决方案。

这一开源举措获得了行业广泛支持。包括捷豹路虎(JLR)、Lucid、Uber以及加州大学伯克利分校DeepDrive深度学习自动驾驶产业联盟(BDD)在内,多家移动出行领军企业和研究机构表示,将利用Alpamayo开发基于推理的自动驾驶技术栈,推动L4级自动驾驶部署。

首个开源推理VLA模型发布

英伟达此次发布的Alpamayo家族整合了三大基础支柱:开源模型、仿真框架和数据集,构建了一个完整的开放生态系统供任何汽车开发者或研究团队使用。

Alpamayo 1是业界首个为自动驾驶研究社区设计的思维链推理VLA模型,现已在Hugging Face平台发布。

该模型采用100亿参数架构,使用视频输入生成轨迹及推理轨迹,展示每个决策背后的逻辑。开发者可以将Alpamayo 1改编为更小的运行时模型用于车辆开发,或将其作为自动驾驶开发工具的基础,例如基于推理的评估器和自动标注系统。


黄仁勋表示:

“物理AI的ChatGPT时刻已到来——机器开始理解、推理并在真实世界中行动。无人出租车是首批受益者。Alpamayo为自动驾驶汽车带来推理能力,使其能够思考罕见场景,在复杂环境中安全驾驶,并解释其驾驶决策——这是安全、可扩展自动驾驶的基础。”

英伟达强调,Alpamayo模型并非直接在车内运行,而是作为大规模教师模型,供开发者微调并提取到其完整自动驾驶技术栈的骨干中。未来该家族的模型将具有更大的参数规模、更详细的推理能力、更多的输入输出灵活性以及商业使用选项。


推理VLA技术原理解析

推理VLA是一种统一的AI模型,将视觉感知、语言理解和动作生成与逐步推理集成在一起。

这类模型整合了明确的AI推理功能,在传统视觉-语言-动作模型的基础上构建。AI推理是AI逐步解决复杂问题并生成类似于人类思维过程推理痕迹的能力。这些系统对一系列互联网规模的任务进行预训练,包括语言生成和视觉连接,以发展通用知识和感知基础。

与将视觉输入直接映射到动作的标准VLA模型不同,推理VLA模型将复杂的任务分解成可管理的子问题,并以可解释的形式阐明其推理过程。这使模型能够更准确地解决问题或执行任务,还能对模型正在进行的操作提供一定程度的反思。

构建推理VLA模型需要三种基本AI功能:视觉感知、语言理解以及动作和决策制定。视觉感知处理来自摄像头、毫米波雷达或激光雷达等感知传感器的实时数据;语言理解通过自然语言处理解释命令、上下文提示和对话输入;动作和决策制定则使用融合的感官和语言信息来计划、选择和安全地执行任务,同时生成可解释的推理痕迹。

在自动驾驶场景中,推理VLA可以对交通状况进行逐步推理。例如,接近一个十字路口时,系统可能会进行如此推理:"我看到一个停止标志,左边有车辆驶来,还有行人正在过马路。我应该减速,完全停下来,等待行人通过人行横道,安全时再继续前进。"

完整开放生态系统支持开发

除Alpamayo 1模型外,英伟达还发布了配套的仿真工具和数据集,构建完整的开发生态系统。

AlpaSim是一个完全开源的端到端仿真框架,用于高保真自动驾驶开发,现已在GitHub平台发布。它提供真实的传感器建模、可配置的交通动态和可扩展的闭环测试环境,实现快速验证和策略优化。

英伟达还提供了面向自动驾驶最多样化的大规模开放数据集,包含超过1700小时的驾驶数据,涵盖最广泛的地理位置和条件范围,覆盖罕见且复杂的真实世界边缘案例,这对于推进推理架构至关重要。这些数据集可在Hugging Face平台获取。

这些工具共同为基于推理的自动驾驶技术栈创建了一个自我强化的开发循环。开发者可以利用这些资源在专有车队数据上微调模型,将其集成到基于英伟达DRIVE AGX Thor加速计算构建的英伟达DRIVE Hyperion架构中,并在商业部署前通过仿真验证性能。


跨行业AI模型全面开放

本周一,英伟达还发布了推动各行业AI发展的多个新开源模型、数据和工具。


这些模型涵盖用于代理AI的英伟达Nemotron家族、用于物理AI的英伟达Cosmos平台、用于机器人的英伟达Isaac GR00T以及用于生物医学的英伟达Clara。英伟达还提供了开源训练框架和全球最大的开放多模态数据集合之一,包括10万亿语言训练标记、50万个机器人轨迹、45.5万个蛋白质结构和100TB的车辆传感器数据。

英伟达代理式AI基础模型Nemotron发布了语音、多模态检索增强生成(RAG)和安全相关的新模型。Nemotron Speech包含业界领先的开源模型,为实时字幕和语音AI应用提供实时、低延迟语音识别。Nemotron RAG包含新的嵌入和重排序视觉语言模型,提供高度准确的多语言和多模态数据洞察。

在物理AI和机器人领域,英伟达发布了Cosmos开放世界基础模型,为加速物理AI开发和验证带来类人推理和世界生成能力。Isaac GR00T N1.6是一个开放推理VLA模型,专为人形机器人打造,实现全身控制,并使用英伟达Cosmos Reason实现更好的推理和上下文理解。

英伟达称,博世(Bosch)、CodeRabbit、CrowdStrike、Cohesity、Fortinet、Franka Robotics、Humanoid、Palantir、Salesforce、ServiceNow、日立和Uber等科技业的领头羊正在采用并基于英伟达的开源模型技术进行开发。

英伟达的开源模型、数据和框架现已在GitHub和Hugging Face平台发布,并可通过一系列云、推理和AI基础设施平台以及build.nvidia.com获取。这些模型中的许多还以英伟达NIM微服务的形式提供,可在从边缘到云端的任何英伟达加速基础设施上进行安全、可扩展的部署。

⭐星标华尔街见闻,好内容不错过

本文不构成个人投资建议,不代表平台观点,市场有风险,投资需谨慎,请独立判断和决策。

觉得好看,请点“在看”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。