当前位置: 首页 » 资讯 » 科技头条 » 正文

黄仁勋对话红杉美国:100万倍的投资回报,以及AI工厂的资本逻辑

IP属地 中国·北京 编辑:王婷 人人都是产品经理 时间:2025-10-16 14:07:25

在当今快速发展的科技时代,人工智能的浪潮正深刻地改变着世界的面貌。本文将带您走进一场极具前瞻性的对话,揭示人工智能背后的资本逻辑与技术演进。

本月初,在 Citadel Securities 举办的「Future of Global Markets 2025」活动现场,红杉美国合伙人 Konstantine Buhler 与 NVIDIA 创始人黄仁勋展开了一场同台对谈。

黄仁勋回忆起 1993 年那笔来自红杉的早期投资:100 万美元、几乎为零的成功概率,以及一个要“同时发明技术与市场”的想法。三十年后,这笔投资成长为超过 1 万亿美元的市值,回报高达 100 万倍。

Buhler 将这段历程总结为技术复利与资本复利叠加的奇迹,而他将这次对谈的重点分成三个方向:

过去,是从PC到GPU的“加速计算革命”;

现在,是从GPU到AI工厂的“系统革命”;

未来,则是Agentic与PhysicalAI的“智能革命”。

从 0% 概率到第一性原理的信念

1993 年,黄仁勋 30 岁。那一年,硅谷的所有投资几乎都围绕通用处理器和摩尔定律展开,集成微处理器被视为计算革命的核心。英特尔正以指数级速度压缩晶体管尺寸,几乎所有资金都流向这条看似无可替代的路径。黄仁勋选择逆向思考:如果通用处理器注定要遇到物理极限,那么新的计算方式一定会出现。

他和团队观察到一个核心矛盾——CPU 的优点在于通用性,但也正因通用,它对极难问题的效率始终有限。于是他们设想:是否可以用“加速器”的方式,为特定领域设计出更高效的计算架构?这种领域专用的算力能够与通用 CPU 并行存在,形成一种“补全型”的计算体系。这便是 NVIDIA 最初的理论起点——加速计算(Accelerated Computing)。

当时的业界环境几乎没有人相信这种模式能成立。黄仁勋回忆,红杉资本的 Don Valentine 在听完融资故事后问他:“你要做的杀手级应用是什么?”他脱口而出“Electronic Arts”,却没想到对方刚好是 EA 的投资人。Don 回答说:“他们 CTO 14 岁,还得家长接送上班。你确定这就是你的 killer app?” 那时的共识是:“要同时发明技术和市场,成功概率约为 0%。”

NVIDIA 的突破,恰恰来自这种“0% 概率”的赌注。黄仁勋决定自己去创造市场。为了让加速计算有现实需求,他们选择 3D 图形作为落地场景——一方面它具备真实世界的物理复杂度,另一方面又有足够强的视觉反馈能推动硬件升级。从本质上,3D 图形的计算任务就是“模拟现实”,而这背后是一套关于线性代数、光线追踪与动力学的数学体系。黄仁勋意识到,如果能把这套数学在硬件层面加速实现,就不只是做图形,而是开启一条新的计算路径。

公司因此诞生在一个“双重虚空”中——没有市场,也没有前例。NVIDIA 必须在自建生态的同时培养开发者,让“图形加速”从垂直场景变成通用语言。黄仁勋形容那是一次同时“发明技术、发明市场、发明路径”的过程。“我们要做的不只是一个芯片,而是一种新的计算范式。”

他始终坚持从第一性原理推演未来:当一种技术今天运转得极好时,应当回头问,它的基础假设是什么,这些假设是否会改变?这种思维让 NVIDIA 在看似被主流占满的赛道中,看到了拐角后的另一种逻辑。

1990 年代末,NVIDIA 终于等来了一个信号——3D 图形游戏成为消费级现象。Electronic Arts、暴雪、索尼等厂商推动了 GPU 市场爆发,而 NVIDIA 在图形芯片上建立的优势,逐渐积累成庞大的软件生态与开发工具链。黄仁勋把这看作公司第一阶段的闭环:从硬件创新者变成生态平台创造者。

他认为,“能成为通用计算平台的,不只是性能最强的芯片,更是能持续吸引开发者的系统。”

正是这种理念,为后来 CUDA 的诞生埋下伏笔——那是一场真正意义上的“计算解封”,让 GPU 从图形设备变成面向所有科学与 AI 研究者的通用加速平台。

从显卡到“通用计算引擎”

CUDA 的诞生,是 NVIDIA 从硬件公司跃迁为计算平台的关键时刻。最初,GPU 被视为游戏和视觉领域的专用芯片,属于一条狭窄而激烈的赛道。黄仁勋回忆:“我们当时不仅要造一项全新的技术,还得同时让一个不存在的市场被创造出来。” 换句话说,他们必须让一项“不通用”的技术具备通用性。

在 2000 年前后,GPU 市场一度涌现出上百家竞争者。多数公司停留在显卡性能迭代上,而 NVIDIA 选择把“图形运算”中的并行能力,推广到更广的计算问题上。他指出,3D 图形的数学本质是“物理模拟”与“线性代数”,这些结构恰好是许多科研和工程问题的共性。如果能让 GPU 支持通用矩阵运算,那么几乎所有需要高并行计算的任务都可以被加速。

这便是 CUDA 的思想起点——让 GPU 成为通用计算引擎。CUDA 不仅是一套软件工具,更是一种标准语言,它让 GPU 能被科学家、工程师和开发者像调用 CPU 一样调用。此举彻底改变了 NVIDIA 的定位:从芯片设计公司变成计算平台的提供者。黄仁勋称其为“第二次发明”——发明的不只是硬件,而是整套市场扩散机制与开发者生态。

为了让生态真正运转,NVIDIA 推出了一项名为“CUDA Everywhere”的计划。黄仁勋亲自走访全球大学与研究机构,从地震分析、分子动力学到量子化学,把 CUDA 植入科研体系。“我们不只是去卖 GPU,而是去启发人们用新的方式思考计算。” 这种自下而上的传播,让 CUDA 成为高性能计算的通用语言。

真正的爆发点出现在 2012 年。那一年,深度学习在学术界迎来转折,AlexNet 在 ImageNet 竞赛上以压倒性优势获胜,而整个模型正是在 NVIDIA GPU 上训练完成的。黄仁勋当时正试图解决计算机视觉问题,对传统算法的脆弱和复杂感到挫败。与此同时,Geoffrey Hinton、Andrew Ng、Yann LeCun 等研究者也在用 CUDA 加速神经网络。几位研究者之间的“偶遇”,成了这场革命的催化剂。

NVIDIA 团队很快意识到,深度学习的计算需求和图形计算极为相似——都是大规模矩阵乘法。于是他们为神经网络专门开发了 CUDA DNN(CUDNN)库,使模型训练速度成倍提升。黄仁勋回忆:“我们和他们看到的是同一个结果,但我们想的是,如果深度学习能在视觉上奏效,那它还能在哪些领域奏效?”

这次反向推理成为 NVIDIA 的长期转折点。团队得出一个关键结论:深度神经网络是“通用函数逼近器”,能学习任意复杂函数。无论是卷积、循环网络,还是后来加入状态机的 Transformer,本质上都在扩展这种“可学习的函数空间”。于是公司开始以此为前提重新设计整个计算栈——从芯片到系统,从软件到算法。

“当我们意识到这项技术能学习任何函数,我们就明白,计算的每一层都可以被重新定义。” 黄仁勋说。

这一决定让 NVIDIA 走出硬件公司的边界,也奠定了它在 AI 革命中的核心位置。接下来的十年,CUDA 不再是图形接口,而成为新一代智能计算平台的语言底座。

AI 工厂:从数据中心到生产体系的重构

2016 年,黄仁勋发布了世界上第一台专为 AI 设计的计算机—— DGX-1。那是一个完全不同于传统服务器的机器,内部整合了 GPU、CPU、网络与软件栈,构成一个可直接进行模型训练的封闭系统。他在 GTC 大会上展示这台电脑时,台下反应寡淡——没人理解这是什么。直到会后,Elon Musk 对他说:“我可以用一台。” 那时的 OpenAI 还只是一个非营利组织,而黄仁勋笑称自己是“DoorDash 的电脑外卖员”,亲手把 DGX-1 送去旧金山。

这段插曲成了日后产业转折的象征。那台电脑后来成为所有 OpenAI 模型的起点,也定义了“AI 工厂”这一概念。黄仁勋解释,DGX-1 定价 30 万美元,是当时全球最贵的计算节点。“它最初并不成功,所以我得出的结论是——我们做得还不够大。” 下一代产品在规模和集成度上全面提升,很快成为业界标配。

在他看来,AI 工厂的核心不是芯片性能,而是系统整合。NVIDIA 不再只是设计单颗 GPU,而是从建筑供电到机架布线,从交换机、网络协议到软件栈,提供一整套可落地的“算力生产线”。“我们是世界上唯一一家能在给定电力和空楼的情况下,交付完整计算基础设施的公司。” 这种纵向一体化让创新速度成倍提升:所有硬件与软件保持兼容,每年迭代一次,性能提升近 10 倍。

他强调,兼容性带来的不是惯性,而是速度。正如 Windows 生态曾推动 PC 快速演化,统一的软件标准让 GPU 系列得以以系统化方式升级。“我们每年都在重写下一代工厂,而这些工厂彼此软件兼容,这种结构性优势就是创新速度。”

AI 工厂与传统数据中心的区别在于,它不是存储和检索信息,而是“生成智能”。黄仁勋说,“数据中心是被动的,AI 工厂是主动的。” 在相同功率条件下,NVIDIA 的系统能以三倍能效完成推理任务,这意味着客户在同样的 1 GW 能源里,可以生成三倍的智能内容、获得三倍的收入。AI 工厂的计算吞吐率直接决定产出能力,因此他称其为“生产设施”而非“数据仓库”。

他进一步指出,NVIDIA 的快速增长并非泡沫,而是来自真实需求的累积。2000 年的互联网公司大多没有盈利,而今天的 AI 已经深入支撑全球超级平台的核心业务:搜索、推荐、广告、短视频,乃至量化交易。Google、Meta、Amazon 每年数千亿美元的营收都在依赖 AI 运行,即使没有 OpenAI 或 Anthropic,这个产业也已存在巨量需求。

同时,新的“AI 制造业”正在出现——大型模型公司如 OpenAI、xAI、Gemini、Claude 正成为“模型制造商”,建设自有的 AI 工厂,为下游企业提供模型和算力服务。这些模型的用途不再局限于生成文本,而是将进入一个更大的市场——劳动。

黄仁勋称之为“Agentic AI”,即数字劳动力。企业的员工队伍将首次同时包含人类与数字员工,后者通过模型执行代码编写、营销、设计、财务等任务。“我们公司内部 100% 的工程师都在使用 Cursor 等工具,它们成为每位员工的第二个大脑。” 他认为,这一产业的潜在市场规模超过 100 万亿美元。

与之并行的是“Physical AI”——把智能嵌入物理世界。自动驾驶是数字司机,未来还会有数字工人、数字机械手、数字助理。所有“能动的事物”都可能成为 AI 的新身体。“这两个市场,一个对应数字劳动力,一个对应物理劳动力,加起来几乎覆盖了人类经济的全部。”

在这一逻辑下,NVIDIA 的产品定义彻底改变:GPU 不再是硬件组件,而是构建智能工厂的最小生产单元。黄仁勋把这种转变概括为一句话——“我们正在制造制造智能的机器。”

Agentic 与 Physical AI:通用智能的“双重具身”

当生成式模型从内容到行动跃迁,AI 的边界被重新划定。黄仁勋指出,AI 工厂不仅在云端生成语言与图像,它们生产的是“可被调用的智能”,并将以两种形态落地——数字劳动力(Agentic AI)与具身智能(Physical AI)。这意味着,AI 第一次在认知和物理两个维度同时进入社会分工体系。

在企业端,Agentic AI 的应用已经开始普及。过去,AI 是人类的“工具”,今天它变成了“数字同事”。软件开发、营销策划、法务审阅、客户支持都在被数字代理部分接管。黄仁勋透露,NVIDIA 内部已经实现“全员 AI 协作”:所有芯片设计师和软件工程师都由 Cursor 等智能体辅助完成任务。“AI 不再只是加速人类工作,而是与人类共同产出。”

他进一步推演了未来企业的形态——人类与数字员工共存,AI 将拥有岗位、层级与培训体系。每个组织都需要学习如何“入职”一名 AI 员工:通过微调与知识注入,让它理解公司的文化、流程与语料。这在他看来,是 CIO 的下一代任务:“未来 IT 部门将成为数字员工的 HR 部门。”

与之对应的另一条路径是 Physical AI。黄仁勋称其为“具身智能”的产业革命。自动驾驶是最典型的例子——数字司机替代人类操作方向盘,而类似逻辑正从车扩展到机械臂、物流机器人、服务机器人等一切能被物理控制的对象。“如果 AI 可以生成一段视频中人类开瓶、喝水的动作,那同样可以驱动一个机械体完成这件事。”

这一推理背后是对“具身学习”的系统性设计。要让机器人具备通用智能,需要三个层次的计算体系:训练它的 AI 工厂、让它试验的虚拟世界,以及支撑它运行的大脑计算机。NVIDIA 在这三层都提供产品——用于模型训练的 GPU 集群,用于仿真的 Omniverse 平台,以及嵌入机器人本体的实时计算芯片。

他将这一过程比作“虚拟世界的孵化”:AI 首先在仿真环境中以游戏角色的方式学习数万次,掌握物理法则和感知—反馈循环,再跨入真实世界执行任务。“虚拟训练的世界和现实之间的差距越来越小,机器人可以在模拟中成长,然后直接进入工厂或街道。”

Omniverse 在这里扮演着关键角色。它是一个可精确复现物理世界的 3D 数字空间,机器人在其中学会抓取、移动、避障等动作。黄仁勋认为,“Omniverse 是 Physical AI 的实验室,是未来机器人文明的操作系统。”

当被问及行业节奏时,他指出,RoboTaxi 已经是现实,而通用型机器人正在迅速接近可用门槛。自动驾驶与人形机器人在架构上高度相似:都是多模态、可泛化、端到端的智能系统,只是具身方式不同。“我能开车,也能操作刀叉,本质上是同一个智能在不同身体里的体现。”

他总结说,未来的智能系统将具备“三重通用性”:多模态(感知多维输入)、多具身(可嵌入多种物理形态)、多领域(适应多类任务)。AI 不再是一种软件,而是一种可以在不同身体间迁移的“能力单位”。

在这种逻辑下,物理世界被重新定义为智能的延伸空间。每一个可被控制的对象——汽车、机械臂、无人机、外骨骼——都可能成为计算的一部分。黄仁勋认为,这是继互联网和移动计算之后最深刻的基础设施变革:“我们终于能制造出能自己制造智能的机器。”

主权 AI 与生成式计算:世界秩序的重写

在谈及未来十年的地缘技术格局时,黄仁勋把“主权 AI(Sovereign AI)”视作新一轮国家竞争的核心主题。他强调,“没有任何一个国家可以把全部数据交出去,再从外部‘进口智能’。” 数据是国家的知识与经验,一旦依赖外部模型生成判断,主权层面的决策能力就会被削弱。因此,每个国家都必须掌握属于自己的 AI 生产力。

他认为,未来的国家 AI 战略将是“进口 + 自建”的混合模式:核心模型可以采购,但底层训练与本地知识体系必须自有。NVIDIA 已经在全球观察到这一趋势——英国、法国、德国、西班牙、意大利、日本、韩国等国家都在建设本地模型公司,从 Mistral、Nebius 到 N-Scale,形成了遍布全球的主权 AI 网络。技术门槛的快速降低,使得这种“国民智能体”的构建变得现实。

当被问及中美关系与出口管制时,黄仁勋选择了审慎的表达。他指出,美国希望在 AI 竞赛中保持领先,但“要警惕让赢得比赛的逻辑变成输掉市场的逻辑”。目前 NVIDIA 在中国市场的份额从 95% 下降至 0%,他直言:“我无法想象这对任何一方都是好主意。” 在他看来,限制政策不仅削弱了美国的出口能力,也阻断了世界最庞大的开发者群体与美国技术的连接。

他提出一种更为平衡的策略:赢得开发者,而不是封锁开发者。 “AI 的胜负关键不在芯片,而在谁的技术栈成为全球标准。我们希望世界建立在美国技术之上。” 中国拥有全球约一半的 AI 研究人员,若他们无法使用美国体系构建模型,长期看反而会促成新的技术分裂。黄仁勋强调,应当以“细腻的策略”在安全与开放之间取得动态平衡。

话题转向安全与生成。黄仁勋认为,未来的 AI 安全将类似网络安全——不是依赖单一防线,而是通过数以百万计的“安全 AI”形成协作网络。“当智能的边际成本趋近于零,安全智能的成本也会趋近于零。” 每个大型模型都会被一群专门监控、修正、过滤的安全模型包围,企业内部外部的系统都将拥有自己的“数字卫士”。

这种演化也带来了新的计算范式。他用一个例子解释这种转变:Perplexity 是生成式的,而 Google 是检索式的。前者基于理解与生成实时构建答案,后者依赖事先存储的网页。视频领域的 Sora、NanoBanana 等产品也遵循相同逻辑——它们不再播放记录,而是直接“生成现实”。黄仁勋说:“以前的计算是去‘读取’,现在的计算是去‘创造’。”

他用一个类比作结:人类的思考过程也是生成式的。每一次对话、每一个判断都在当下被创造,而不是去“检索”记忆库。“你刚刚问的每个问题,我都不是回到办公室找答案,而是即时生成。” 这就是未来计算的样子——“100% 生成式的世界,每一个像素、每一句话、每一个动作都在实时被创造。”

在这一体系下,AI 工厂的作用不再是数据中心,而是人类创造力的底层能源。每一座工厂都在生产智能,所有生成的内容、代码、语言、决策,都是“产出”。黄仁勋估算,目前全球的 AI 基础设施投资不过数千亿美元,而这一曲线将迅速攀升到每年数万亿美元的规模。

“我们正处在旅程的起点。”他平静地说。

从加速计算到 CUDA,从 GPU 到 AI 工厂,从 agentic 到 physical,再到主权 AI,NVIDIA 已经不只是制造硬件的公司,而是构建未来文明“智能能源”的企业。

“未来的计算机,将是诗人、工程师、同事和伙伴。”

标签: 黄仁勋 数字 智能 技术 公司 工厂 机器人 模型 美国 人类 逻辑 芯片 物理 平台 体系 市场 资本 开发者 核心 红杉 世界 硬件 语言 国家 软件 对话 领域 员工 企业 视觉 全球 问题

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。