![]()
机器之心编辑部
过去十年,AI 卡的是算力;未来十年,物理 AI 卡的是数据。而数据的前提,是仿真。
没有可规模化的仿真世界,就没有可规模化的机器人数据;没有统一的仿真标准,就不会有真正的物理 AI 生态。
仿真,正在成为物理 AI 时代的 CUDA。
CUDA 曾经把 GPU 计算变成 AI 时代的统一底座。今天,仿真正成为物理 AI 时代新的标准层。
物理 AI 的核心瓶颈已经变了
回望过去的技术演进,每个阶段都有自己的关键瓶颈。
大语言模型时代,这个瓶颈是算力。不论是闭源的 GPT、Claude,还是开源的 Llama、Qwen、DeepSeek,这条赛道的核心命题始终只有一个:如何用更多算力、在更大数据集上跑通 Scaling Law。算力的天花板在哪里,模型能力的边界就在哪里。
支撑这一轮浪潮的底层基础设施,正是以 CUDA 为代表的统一计算标准。CUDA 把 GPU 从图形计算工具变成 AI 时代的通用计算底座,也让大模型训练第一次拥有了可规模化调用的计算基础设施。谁掌握算力入口,谁就拥有时代红利。
但进入物理 AI 时代,核心瓶颈正在从 “算力” 转向 “数据”。
过去的大模型,本质上是用互联网语料学习人类世界;而物理 AI,需要学习真实物理世界。语言模型学习的是文字之间的关系,机器人学习的则是力如何传递、接触如何发生、动作如何实现、世界如何反馈。
这意味着,物理 AI 所需要的数据,不再是互联网中天然存在的信息,而是必须在 “可交互、可执行、可验证” 的物理环境中被系统性生成。
![]()
数据的困境,来自机器人学习方式的根本差异。斯坦福教授李飞飞曾在谈及机器人智能与传统机器学习的差异时指出:“把数据带入机器人训练,远比收集图片困难得多。” 机器人模型要学会抓取、搬运、操作、行走,需要的不是静态图像,而是大量覆盖真实物理交互的高质量行动数据。
这类数据无法像网页文本一样从互联网爬取,也无法通过简单扩大算力凭空生成。自动驾驶尚有 “影子模式”:几百万辆量产车每天在真实道路上行驶,司机的每一个操作都可以成为天然监督信号;机器人并没有这样的基础设施
也正因如此,李飞飞进一步提出,可以用大量仿真数据训练机器人 “大脑”,再用更少量的真实数据弥合通往现实世界的差距。换句话说,机器人数据不是现成存在的互联网语料,而必须在可交互、可执行、可验证的环境中被系统性生产出来;没有成熟的仿真体系,就没有规模化的训练数据,也就没有具身智能的持续迭代。
除了数据数量,数据质量同样关键。过去谈论数据质量,往往联想到成功完成任务的样本;但物理 AI 更需要理解失败—— 物体为什么滑落,动作为什么失稳,接触为什么偏离预期。只有不断暴露问题、纠错反馈,模型才可能从数据中真正获得学习信号。
因此,数据背后还有一个同等重要却更隐蔽的瓶颈:评测
大模型时代的评测相对成熟:训练损失是可靠的优化信号,标准化基准(MMLU、HumanEval 等)能直接反映模型能力进展。但在物理 AI 领域,这套逻辑失效了。训练损失的下降与实验室 Demo 的成功,已难以全面反映模型在真实环境中的综合能力;今天跑通的动作,换一个灯光、换一个物体表面,可能就失效了。
问题的核心在于:机器人的训练与评测,本质上都需要在符合真实物理规则的环境中反复执行。但真实世界不可无限重置、不可大规模并行,也难以系统性构造失败场景。没有统一、可复现、可并行、可量化的评测体系,数据就很难有效指导训练,模型也无法知道自己在哪里失败,更无法定向补充数据、提升能力。
因此,仿真不再是辅助工具,而是物理 AI 数据生产与能力评测的前提条件。谁能构建更大、更快、更真实的仿真世界,谁就同时打开了数据生产和能力评测两道门,也就掌握了通往通用具身智能的钥匙。
仿真
国际巨头争抢的物理 AI 战略高地
如果说上述判断还停留在理论层面,那么过去十几年国际巨头的一系列动作早已用真金白银做出了表态。他们通过收购、开源、孵化、自研,不遗余力地要把仿真能力嵌入到自己的机器人技术栈与生态标准中。
NVIDIA 早在 2008 年就收购了当时最主流的物理引擎PhysX,并深度绑定自家 GPU 硬件,将其逐步从游戏物理工具演进为 Omniverse 中的高精度仿真内核,成为 Isaac Sim 等机器人平台的核心物理基础设施。
Google DeepMind 在 2021 年收购了MuJoCo—— 此前它已是机器人和强化学习圈的标配工具,成为论文、基准测试、开源代码的默认选项。由此,Google 顺理成章地拿到了整个机器人学术界的工具链主导权。
Drake孵化自 MIT CSAIL,后被 Toyota Research Institute(TRI)接管,成为高可信动力学仿真的可扩展底座;Bullet 则随着创始人的入职而与 Google 生态实现深度绑定。
Disney Research 则走了一条自研路线:孵化出专攻闭链机构与极端工况运动求解的仿真引擎Kamino,专攻非标准构型下如何稳定站立和运动,从而解决商业化机器人落地的高频痛点。
这些举措并非偶然,而是全球顶级机构在仿真赛道上有意识的战略卡位。过去行业以为,仿真只是一个工程工具;但今天全球巨头真正争夺的,已经不是 “谁的引擎更快”,而是谁能定义世界如何被建模、物理如何被表达、数据如何被生成、能力如何被评测、机器人如何被训练。
因为谁定义仿真,谁就定义了机器如何理解现实世界。这已经不是工具之争,而是世界定义权之争。
问题也随之出现:这些求解器长期分散在不同体系中,物理表达、资产标准、训练接口和评测流程彼此割裂。物理 AI 需要的,不是更多单点工具,而是一个能把这些能力整合进同一架构的中枢引擎。
Newton
全球物理 AI 基础设施第一次走向统一
![]()
Newton应运而生。
这不是一次普通的开源发布,而是全球物理 AI 基础设施第一次开始走向统一。过去十几年,GPU 并行计算、高精度接触动力学、复杂机构求解、强化学习仿真、工业级机器人验证,始终分散在不同体系中。Newton 第一次尝试把这些能力放进同一个开放架构中。
它想统一的是物理 AI 的底层世界模型。
2025 年 9 月,NVIDIA、Google DeepMind 与 Disney Research 联合开源物理仿真引擎 Newton Beta 版。它不是某一家公司的单点开源尝试,而是三家全球顶级机构投入数百名工程师与研究员、历时近两年持续开发,将各自最强的仿真能力放进同一个开放架构中的结果。
NVIDIA 贡献的是 GPU 原生加速、Warp 框架与 Isaac 生态。过去十几年,NVIDIA 持续推动 GPU 从图形计算走向通用计算,再走向 AI 训练与物理仿真。到了 Newton,这套能力被进一步延伸到机器人学习场景:高并行、可扩展,并可与现代 AI 训练基础设施深度结合。
Google DeepMind 带来的是 MuJoCo 在机器人学习与高精度接触动力学上的长期积累。MuJoCo 曾是机器人强化学习和控制研究中最重要的仿真工具之一,而 Newton 将这一套高精度动力学能力迁移到 GPU 原生框架中,使其能够支撑更大规模的并行训练和评测。
Disney Research 则将 Kamino 等仿真能力纳入其中。与标准机器人形态不同,Disney 长期面对的是闭链机构、复杂结构、非标准构型与极端工况下的运动控制问题,这使其在复杂机构稳定求解上形成了独特积累。Newton 将这一路线吸收进统一架构,使机器人仿真不再局限于传统刚体系统,而是进一步覆盖复杂机构、柔性材料与多物理交互。
也就是说,Newton 实现了GPU 并行计算、高精度接触动力学、复杂机构求解与机器人学习生态第一次在同一个开源架构中实现系统性汇合
模块化架构、GPU 原生加速、自动微分能力与跨生态协作机制,使 Newton 不只是一个物理引擎,更像是面向物理 AI 训练、评测与部署的统一仿真底座
这些特质,使Newton 从诞生之初就站在了物理 AI 基础设施的关键位置
值得关注的是,在这个由全球顶级机构共同构成的物理 AI 仿真基础设施版图中,中国公司第一次出现在核心坐标上
中国公司第一次
进入全球物理 AI 标准定义层
![]()
今年三月,光轮智能正式受邀作为核心指导委员加入开源 GPU 加速物理引擎 Newton,在关键具身仿真技术方向上发挥主导作用,并与 NVIDIA、Google DeepMind、Disney Research, 共同引领推动下一代开源物理 AI 仿真标准。
同时加入的还有 Toyota Research Institute (丰田研究院),所带来的高可信动力学仿真的可扩展软件底座 Drake,进一步拓展了 Newton 的技术能力。
第一次,中国公司以核心共建者身份进入全球物理 AI 仿真基础设施标准的定义层:过去二十年,操作系统生态由 Microsoft 与 Apple 定义,移动生态由 Apple 与 Google 定义,AI 训练框架与计算标准由 NVIDIA 与 Google 等巨头主导。而今天,物理 AI 的仿真标准终于开始有了中国公司的核心参与。
光轮加入 Newton TSC,是凭借全栈自研的 “求解—测量—生成” 三位一体技术平台
首先,依托自研求解器与物理测量体系,主导 Newton 引擎核心能力的持续演进,包括求解器的物理验证与系统性标定、接触建模与多物理场能力优化,以及仿真结果与真实世界一致性的持续提升。其次,围绕SimReady 体系,推动仿真资产在物理属性规范、数据格式、接口标准、验证流程与评测体系等方面的进一步统一,完善下一代仿真世界标准。第三,依托物理测量工厂与资产生成体系,持续提升规模化 SimReady 世界供给能力,构建高保真、可复用的仿真资产与场景库,为全球开发者提供可直接使用的仿真资源。
求解、测量、生成三者合在一起,构成从物理建模、引擎验证到工程落地的完整闭环,这使 Newton 不仅能算,而且可验证、可复用、可规模化进入真实工业流程。
![]()
也正因此,光轮成为 Newton TSC 核心共建格局中唯一一家中国公司。这标志着其在物理 AI 底层技术领域的能力与影响力,获得了国际生态的正式认可。
事实上,光轮在国际开源生态中的布局远不止于 Newton。
此前,光轮智能已联合 NVIDIA 开源发布Isaac Lab-Arena机器人策略评测基准框架,推动具身大模型评测走向可复现、可扩展、可规模化;自研LeIsaac仿真平台被 Hugging Face 官方文档收录,成为全球开发者进入具身仿真的标准工程框架;联手 World Labs,用RoboFinals解决世界模型评测难题;联合通义千问,通过RoboFinals共建可复现、可诊断的工业级评测闭环,推动具身智能评测从学术 benchmark 走向工业级基础设施。
从底层物理引擎,到开发者平台,再到评测框架与工业级闭环,光轮智能参与的并不是一个个孤立项目,而是一条清晰的生态路径:底层物理引擎负责 “世界如何运行”,仿真平台负责 “开发者如何使用”,评测框架负责 “模型如何被衡量”,工业级评测闭环则负责 “能力如何持续迭代”。
这条生态路径的价值已经在市场中得到验证。今天,光轮智能已成为全球物理 AI 仿真与数据基础设施的重要提供方,服务全球全部前五的世界模型团队;国际主流具身智能团队中,超过 80% 的仿真资产与合成数据来自光轮
在这条路径上,光轮智能的角色发生变化:它不只是为头部模型团队提供仿真资产与合成数据,更是在引领构建物理 AI 时代的开源基础设施、开发者平台与评测标准
中国公司第一次以核心技术共建者的身份,进入全球物理 AI 仿真基础设施标准形成的关键位置。
![]()
全球物理 AI 仿真 Top 5 专家天团
再看 Newton TSC 的人员构成,可谓高手云集。
![]()
Miles Macklin Ph.D.(NVIDIA)NVIDIA 仿真技术高级工程总监,Warp 框架的联合创造者。如果说 Newton 的速度优势有一个技术源头,就是 Macklin 和他的团队十几年来在 GPU 并行物理仿真上的积累。Yuval Tassa Ph.D.(Google DeepMind)机器人仿真团队负责人,MuJoCo 联合创始人。他解决了 MuJoCo-Warp 的融合问题,让 MuJoCo 的物理精度在 GPU 上重生。Tassa 代表的是机器人学界最核心的一条高精度仿真路径。谢晨 Ph.D.(光轮智能)光轮智能创始人兼 CEO,曾任 NVIDIA 及 Cruise 自动驾驶仿真负责人,长期推动仿真与合成数据在自动驾驶和物理 AI 中的产业化落地。国际首创将生成式 AI 融入仿真,主导确立光轮“求解—测量—生成”三位一体全栈自研仿真技术路线。Moritz Bächer Ph.D.(Disney Research)Disney Research 负责人。Disney 的主题乐园可能是全球对娱乐机器人要求最苛刻的环境,Kamino 求解器就是在他手下诞生的。Michael Sherman Ph.D.(TRI)是机器人仿真基础设施领域的老兵。作为 TRI 机器人仿真的核心负责人之一,其职业轨迹横跨 SD/FAST、Simbody、OpenSim、Drake 等多代关键仿真平台。
和这四位全球仿真领域的核心奠基者相比,谢晨博士的独特之处在于:他不是从单一求解器、单一学术体系或单点工程模块中走来,而是在自动驾驶与物理 AI 两代产业浪潮中,持续主导仿真基础设施的工程化、规模化与系统化落地
他先后在 Cruise 和 NVIDIA 主导自动驾驶仿真体系建设,在 L4 自动驾驶一线验证了仿真与合成数据对算法迭代的价值,也在全球仿真基础设施从自动驾驶时代走向物理 AI 时代的承担了关键角色。
在这一过程中,谢晨博士形成了区别于传统仿真专家的系统性视角:仿真不是一个求解器、一套工具链,或一个用于测试的虚拟环境,而是一套贯穿数据生成、模型训练、能力评测与真实部署的完整教育系统。
自动驾驶时代,仿真主要服务于视觉感知、场景回放与回归测试;进入机器人与物理 AI 阶段,仿真还必须解决接触、力传递、材料形变、动作失败等真实物理交互问题,并支撑模型在可复现、可规模化的环境中持续学习
2023 年,光轮智能的创立正是要把这一判断系统化为可落地、可交付、可规模化的全栈仿真基础设施。光轮所构建的不是单点仿真工具,而是以求解、测量、生成、训练、评测与部署为核心的完整闭环,继续引领仿真从 “辅助验证工具” 走向物理 AI 的核心生产系统。
因此,他加入 Newton TSC,不只是个人入选,而是中国力量首次以核心构建者身份进入全球物理 AI 基础设施的核心坐标
仿真是物理 AI 时代的 CUDA
过去十年卡算力,未来十年卡数据。而数据的前提,是仿真。
2006 年,NVIDIA 发布 CUDA。在那之前,GPU 仍主要被视为图形计算工具,普通开发者想调用其并行计算能力,门槛极高。CUDA 把 GPU 的计算能力抽象成一套标准接口,让开发者可以规模化调用。
CUDA 成功的关键,在于它在关键窗口期同时完成了三件事:建立统一底层标准,让碎片化算力可以被统一调用;构建 cuDNN 等一整套工具链,把底层算力翻译成开发者能直接调用的生产力;开放生态,让这套标准形成跨场景、跨开发者、跨模型训练流程的普适性。
今天,物理 AI 正处在相似的历史节点。大模型时代,CUDA 定义的是 “如何调用计算”;物理 AI 时代,仿真要定义的是 “如何生成世界”,因为机器人需要的是更多可交互、可执行、可评测、可迁移的物理世界。因此,仿真正从工具层上升为标准层:它需要定义机器人的训练场景、世界的表征逻辑、数据生产与结果评测方式……
历史上,每一次基础设施标准窗口期关闭之后,后来者都很难再获得定义权。PC 时代,操作系统生态由 Microsoft 与 Apple 定义;移动时代,应用生态由 Apple 和 Google 定义;大模型时代,训练框架与计算标准由 CUDA 定义。
而今天,物理 AI 的仿真层,正处于规则尚未凝固的窗口期。谁能定义世界如何被表达,数据如何被生成,能力如何被评测,机器人如何被训练,谁就有机会定义物理 AI 的未来。
窗口不会永远打开。
而这一次,中国公司第一次站上了书写规则的位置。





京公网安备 11011402013531号