当前位置: 首页 » 资讯 » 科技头条 » 正文

营收5700000000美元,英伟达:泡沫?什么泡沫

IP属地 中国·北京 编辑:李娜 硅星人 时间:2025-11-20 16:10:12

2025 年 11 月 19 日,美国东部时间下午 5 点,英伟达发布2026 财年第三季度财报。

这一季的数据很夸张:营收 570 亿美元,同比增长 62%,环比多了整整 100 亿美元(+22%),数据中心业务继续飞奔,网络、计算、汽车、专业可视化全部双位数增长。但比数字更值得编译和整理的,是管理层在电话会里给出的那套逻辑:

他们几乎把所有关于“AI 泡沫”的质疑,重新改写成了一场“三次平台大迁移 + 十年基础设施周期”的故事。

基于这份电话会议记录,本文对管理层的核心观点做了一次系统的编译和梳理。

一、成绩单:

570 亿美元的大头,几乎都来自 AI 工厂

先把关键数字捋清楚:

总收入:570 亿美元,同比 +62%,环比增加 100 亿美元(+22%)。

数据中心收入:510 亿美元,同比 +66%,再创新高,几乎就是整家公司。

网络收入:82 亿美元,同比飙升 162%,靠的是 NVLink、InfiniBand 和 Spectrum X 以太网。

计算部门:同比 +56%,核心驱动力来自 GB300 GPU 的放量,Hopper 平台本季仍贡献了约 20 亿美元收入。

游戏业务:43 亿美元,同比 +30%,主要是游戏玩家和本地 AI 需求的叠加。

专业可视化:7.6 亿美元,同比 +56%,DGX Spark 被点名是关键贡献者。

汽车业务:5.92 亿美元,同比 +32%,自动驾驶解决方案是主力。

盈利能力同样“变态”:

GAAP 毛利率:73.4%,

Non-GAAP 毛利率:73.6%, 都比之前的指引更高。Colette Kress 解释,主要得益于数据中心产品组合、生产周期时间改善以及成本结构优化。

但也不是全是甜蜜,电话会一上来就坦白了三点风险:

中国收入被“掐断”:

由于地缘政治和本地竞争,本季度原本计划的大额订单没有落地,直接影响了高端数据中心计算产品对中国的出货。Colette 还明确表示,在 Q4 的指引里,“我们没有假设来自中国的任何数据中心计算收入”

投入成本在上升:

面向 2027 财年,内存等关键元件价格抬头,系统复杂度也在增加。公司一边加大采购锁价,一边强调,仍会努力把毛利率“压在 70% 中段”。

库存和供应承诺同步上扬:

库存环比增加 32%,供应承诺环比增加 63%。管理层的态度是:这是主动为未来更大规模的增长“铺货”,而不是需求不行的被动堆库存。

展望第四季度,指引同样激进:

Q4 收入指引:650 亿美元,上下浮动 2%,按中值算环比还要再涨 14%,主要由 Blackwell 架构继续放量带动。

毛利率指引:GAAP 和 Non-GAAP 都预计维持在 70% 中段,尽管投入成本上涨。

从这张“财务快照”可以看出一个核心事实:

英伟达现在的财报,其实就是一张全球 AI 工厂建设进度表。

二、CFO 的视角:

三大平台转型 + 5000 亿 Blackwell/Rubin 收入蓝图

在财务数字之后,CFO Colette Kress 用相当长的一段话,把这季的增长放进了一个更大的框架里:

“三大平台转型”还在早期

她强调,客户现在集中在三条主线做投入:

向加速计算迁移

从传统 CPU 通用计算,转向 GPU 加速计算,把原本跑在 CPU 上的大量数据处理、科学计算工作负载搬到 CUDA 平台上。

向大模型/生成式 AI 迁移

搜索、推荐、内容理解、广告排序,从传统机器学习体系切换到大模型,重写生产线。

向智能体(Agent)应用迁移

自主推理、规划、调用工具的“智能代理 AI”,开始渗透到编程、医疗、金融、运营等业务线。

她的判断是:这三件事都还在早期阶段,“会波及所有行业”。

Blackwell + Rubin:到 2026 年底要拿下 5000 亿美元营收

Colette 给了一个颇具争议、但已经被资本市场广泛引用的数字:

从今年开始到 2026 年年底,Blackwell 和 Rubin 两代平台,合计营收目标是 5000 亿美元。

电话会记录里,她再次确认这一目标“正在推进”:

部分收入已经在过去几个季度确认;

接下来还有几个季度会持续兑现;

而且,这 5000 亿本身还有“上调空间”:比如当天刚刚宣布的与沙特的合作,未来三年新增 40–60 万块 GPU;和 Anthropic 的协议,同样是原先规划之外的增量计算需求。

在她的叙事里,英伟达的角色很明确:

要在未来十年走向年均 3–4 万亿美元规模的全球 AI 基础设施建设里,做“首选平台”。

“云已售罄”:GPU 安装基础完全被吃满

Colette 多次重复一个说法:“云服务已售罄(clouds are sold out)”;Blackwell、Hopper、Ampere 等几代 GPU 的安装基础“全部在满负荷运行”。第三季度数据中心收入 510 亿美元,就是在这样的高稼动率之上做出来的。配合这点,她给出了一串“案例库”,说明这些算力在被用在什么地方:

互联网平台:

Meta 用基于 GPU 集群训练的 Gem 广告推荐基础模型,让 Instagram 广告转化率 +5%,Facebook 信息流 +3%;用户在 Facebook、Threads 等应用上花的时间明显上升。

基础模型公司:

OpenAI:周活用户 8 亿,企业客户超过 100 万,毛利率保持健康;Anthropic:年化营收从年初的 10 亿美元,涨到 70 亿美元。其他名字还包括 Mistral、Reflection、Safe Superintelligence、xAI 等。

垂直场景:

RBC 用智能体 AI 把分析师写报告的时间,从几小时压缩到几分钟;联合利华通过 AI + 数字孪生,让内容创作效率提升 2 倍、成本下降 55%;Salesforce 工程团队使用 Cursor 后,新代码开发效率至少提升 30%。

这些例子共同指向一个判断:

AI 基础设施的投入,已经开始在真实业务里“找回报”,而不止停留在“创新预算”。

五百万 GPU 的 AI 工厂计划

本季英伟达还宣布了一串 AI 工厂和基础设施项目,总量涉及约 500 万块 GPU,覆盖:

公有云 CSP、主权国家数据中心;

制药、制造等行业的“AI 工厂”;

标志性项目包括:xAI 的 Colossus 2 —— 全球首个千兆瓦级数据中心;礼来(Eli Lilly)的 AI 工厂,用于药物研发;AWS + Humane 的扩展合作:部署多达 15 万台 AI 加速器(包括 GB300),以及一座 500 兆瓦的旗舰 GPU 数据中心。

在这套叙事下,“570 亿营收”只是起点,真正让市场紧张的是:

未来两三年,这家公司打算吃下多大一块 AI 基建蛋糕。

1

三、黄仁勋的“反泡沫”故事:三次平台大迁移

轮到黄仁勋发言时,他没有先谈估值,而是直接回应了“泡沫”这个词:

“关于人工智能泡沫的讨论很多。从我们的角度来看,我们看到的是截然不同的情况。

他的核心论点,可以浓缩成一句话:

世界正在同时经历三次巨大的平台级迁移,而英伟达刚好站在这三次迁移的交叉点。

第一次迁移:从 CPU 到 GPU 的加速计算

摩尔定律放缓,传统 CPU 性能/成本的提升越来越难;

大量原本跑在 CPU 上的非 AI 工作负载——数据处理、科学与工程仿真等——正向 CUDA GPU 迁移;

这一层迁移,本质上是为了延续“算力通缩”:用更低的单位成本获得更多计算

黄仁勋把这部分定义为“基础且必要的转型”:

“在后摩尔定律时代,这是至关重要的。”

第二次迁移:从传统机器学习到生成式 AI

第二层,是我们熟悉的那波浪潮:

搜索排序、推荐系统、广告投放、内容审核等,正在从传统 ML/深度学习体系,迁移到基于大模型与生成式 AI 的范式;

Meta 的 Gem 模型就是典型案例:依托大规模 GPU 集群训练,把广告推荐效果实打实抬高了几个百分点,这直接体现在收入上。

在这层上,AI 不再只是“节约成本”的工具,而是直接带来营收增量的引擎

第三次迁移:向智能体和物理 AI

第三层,是“智能体 AI”和“物理 AI”:

这类系统具备推理、规划和使用工具的能力;

从代码助手(Cursor、Claude Code、GitHub Copilot),到医疗放射影像助手(iDoc)、法律助手(Harvey),再到自动驾驶司机(Tesla FSD、Waymo),都被他归类为“智能代理 AI”;

更往下,是与机器人、工厂、车队、城市基础设施深度耦合的“物理 AI”:利用 Omniverse 做数字孪生工厂的台积电、丰田、富士康、Lucid 等;用 Jetson 平台和 Cosmos 世界模型做人形/移动机器人开发的 Agility Robotics、Amazon Robotics、Figure 等。

在他看来,这一层会带来全新的应用、产品、公司和服务,是最具颠覆性的一层。

英伟达如何把三次迁移“捏”在一起?

黄仁勋的自我定位是非常“野心家”的:

在加速计算的迁移中

,CUDA + GPU 是最成熟的方案;

在生成式 AI 迁移中

,英伟达在训练、后训练(推理前的强化、微调)和推理三个阶段,都有一整套软件栈和硬件组合;

在智能体和物理 AI 中

,从数据中心到机器人边缘设备,一条链路都在用同一套架构。

他说得很直白:

“无论是 AI 的每个阶段,还是各种不同的计算需求,我们的架构都是通用的。你可以投资一种架构,然后在所有这些阶段和工作负载上放心使用。”

这就是他对“泡沫”质疑的整体回应:

资本市场看的是市值曲线,而他强调的是:三条不同性质的迁移曲线,正在同时发生,且都压在英伟达的 GPU 上。

四、关键问答:

5000 亿订单、供给瓶颈与中国风险

电话会议的 Q&A 部分,补足了很多关键信息。挑几个重点说。

5000 亿 Blackwell + Rubin 收入,还靠谱吗?

摩根士丹利的 Joseph Moore 追问:

GTC 上提的2025–2026 年 Blackwell + Rubin 5000 亿美元收入预期,现在还有没有变化?

Colette 的回答是:

目标没变,“我们正在按这个路径执行”;

5000 亿中已经有一部分在前几个季度确认;

接下来到 2026 年底,还有几个季度会持续贡献;

而且,“这个数字有上调可能”:和沙特的协议,在未来三年新增 40–60 万块 GPU;与 Anthropic 的合作,则带来了高达 1 吉瓦算力承诺。

——这些,都还没算在最初的 5000 亿里。

供应能不能赶上需求?ROI 会不会撑不住?

Cantor Fitzgerald 的 C.J. Muse 问了一个所有人都在想的现实问题:

一边是大家担心 AI 基础设施建设太烧钱、ROI 与融资能力成问题; 另一边是你们自己又在说“GPU 全部售罄、云都卖空了”。 那么未来 12–18 个月里,供应会赶上需求吗?

黄仁勋的回答重点有三:

供应链规划:

英伟达的供应链覆盖台积电及其封装、内存供应商、系统 ODM 等,“我们和他们做了非常长周期的规划”;“我们原本就计划迎来一个大年”,而现在的需求增长,印证了他们对三个转型的判断。

需求结构:

不仅仅是“聊天机器人”在用 GPU,从数据处理到推荐系统,从生成式 AI 到各种 agent 工具,哪一层都在吃 GPU,且增速都很快。

ROI

一部分投资来自通用计算迁移,本质上是为了延续“算力通缩”;一部分投资来自生成式 AI 提升现有业务收入;还有一部分来自全新的 agentic & 物理 AI 应用

换句话说,他认为需求是真实且多层次的,而不是单一领域炒作。

每吉瓦能卖多少钱硬件?谁来为三四万亿 AI 基建买单?

BofA 的 Vivek Arya 问得很具体:

在你口中的 5000 亿里,你假设的“每 1 吉瓦数据中心对应多少美元硬件”是多少?

到 2030 年,全球数据中心 3–4 万亿美元投资中,有多少需要靠供应商融资,有多少可以由客户自己现金流支持?

黄仁勋给出了一组有参考意义的量级(非精确指引):

在 Hopper 这一代,一个 1 吉瓦数据中心,相当于大约20–25 亿美元的英伟达数据中心产品;

到 Grace Blackwell/GB200,可能来到30 亿美元以上

Rubin 一代会更高,因为每瓦性能进一步提升。

关键句是这句:

“一个吉瓦数据中心就是一个吉瓦功率。你的每瓦性能,几乎直接决定你的收入上限。

这背后的逻辑是:

电力是刚性约束:一个园区就是 1 吉瓦电进来,不会无限扩张;

在同样的 1 吉瓦电、同样的机房面积下,谁的架构性能/瓦更高,谁就能卖出更多的硬件票面;

因此,架构效率不只是技术指标,而是收入天花板

至于“谁来为 3–4 万亿买单”,他的回答更宏观:

不能只盯着美国几大云厂商;

每个国家都会为自己的 AI 基础设施买单;

大多数行业的 agentic AI、物理 AI 才刚刚开始,未来会有一波又一波新的融资主体加入。

中国市场:短期清零,长期仍想“留门”

关于中国,Colette 的表态比较直接:

本季度原计划的大额订单并未落地,H20 销售额仅约 5000 万美元;

原因是地缘政治 + 中国本地竞争加剧

因此公司在 Q4 指引中,假设来自中国的数据中心计算收入为 0

但黄仁勋也强调,英伟达会持续同中美两国政府沟通,长期目标仍然是:

“要在包括中国在内的所有商业企业中,成为开发者和企业的首选平台。”

这意味着,当前对华高端芯片出口的限制,英伟达视为“节奏问题”,而不是长期放弃的市场。

ASIC vs GPU:为什么英伟达认为自己“不可替代”?

Wells Fargo 的 Aaron Rakers 问到定制 AI ASIC 的竞争,问黄仁勋是否改变了看法。

他的回答可以总结为“五个维度的护城河”:

覆盖所有转型阶段:

从通用加速计算,到生成式 AI,再到代理式 / 物理 AI,同一套架构都能胜任

覆盖 AI 的每个阶段:

预训练、后训练、推理这三步都极其复杂,尤其是链式思维等推理型推理,“事实证明推理是最难的”,而英伟达在三阶段都有很强的系统方案。

覆盖所有主流模型:

自回归、扩散、专家混合(MoE)、各种生物/物理模型—— “我们是唯一一个能把所有这些模型跑在一个平台上的架构。”

覆盖所有云和边缘形态:

从公有云、私有云,到本地 DGX Spark 再到机器人和 PC,一套 CUDA 生态贯穿始终,这大幅降低了开发者的心智成本。

带来真正的需求与多样性:

对云厂商、新创云(CoreWeave、Lambda 等)乃至新公司(Humane)来说,把 GPU 算力“挂上架”后,背后是庞大的模型生态和开发者需求,而不是一个“孤立的 ASIC”。

他最后的总结是:

“这不是简单往数据中心里塞一个随机 ASIC 的问题。需求从哪来?多样性从哪来?韧性从哪来?英伟达的生态系统,已经证明它能把这些全部带给客户。

这一次,泡沫没有破裂。音乐继续。

本文来自微信公众号“硅星人Pro”,作者:硅基版

标签: 数据中心 模型 平台 工厂 泡沫 系统 中国 关键 广告 数字 成本 基础设施 基础 市场 营收 全部 管理层 能力 核心 问题 传统 吉瓦 排序 工具 架构 业务 智能 时间 黄仁勋 计划 大额

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。