当前位置: 首页 » 资讯 » 财经头条 » 正文

AI能为汽车带来哪些改变?何小鹏:未来一家AI汽车公司年研发投入至少500亿元

IP属地 中国·北京 编辑:江紫萱 时代周报 时间:2025-09-04 14:28:16

本文时代周报 作者:朱成呈


近日,在《罗永浩的十字路口》视频播客中,何小鹏抛出了一组惊人的数字:未来一家AI汽车公司的年研发投入至少需500亿元,其中约300亿元可能用于AI技术。

对一家造车新势力而言,这样的数字既像是蓝图,也像是一场押注。300亿元,几乎相当于一家中小型车企一年的营收,却要投向一个边界尚未清晰的赛道。

过去,车企研发的核心在于发动机、变速箱和底盘,如今算法、算力和数据成为不能忽视的因素。AI不再只是语音助手或自动泊车的附属功能,而是被推上了产业重构的中心舞台。

东吴证券研报指出,未来5年汽车将迎来智能化时代,智能汽车不是简单的智能手机复制,或将成为AI时代最重要终端之一。

中国信通院的报告同样显示,AI 技术正全面融入(汽车)研发设计、用户运营、座舱体验等核心价值域,构建业务智能化升级支柱。

何小鹏此前曾喊话,小鹏汽车的目标是“成为面向全球的AI汽车公司”。而在资本市场与产业链的交织中,重金投入背后尚有一个未解的问题:AI真正能为汽车带来什么?

智能座舱:AI大模型的新战场

沙利文联合头豹研究院发布的《AI赋能千行百业白皮书》显示,2025年3月,全国已有451个生成式人工智能服务完成备案,其中超80%为垂直领域定制化解决方案,仅19%为通用模型,标志着AI应用正从“通用能力”向“场景化落地”深度演进。

汽车产业正是这波演进的前线:用户需求足够高频、数据闭环天然可得、硬件更新周期与软件持续迭代可以解耦,“座舱”因此成为最先跑通商业与体验闭环的入口。

“AI作为通用技术,可以在多个维度赋能汽车产业。”北方工业大学汽车产业创新研究中心主任纪雪洪对时代周报记者表示。在他看来,L4级自动驾驶是产业最关注的方向,而在座舱里,AI的应用已经开始改变用户体验。如理想i8搭载的智能体功能,正是通过AI来优化交互、提升场景化服务,让座舱成为AI落地的重要载体。

这一趋势已经在车企层面显现。2025年,随着DeepSeek大模型走红,吉利、东风、广汽、上汽、长城、奇瑞、比亚迪等头部车企密集宣布与其合作,目标直指座舱智能化的重构。它不仅仅是一次功能“升级”,而且让座舱从执行命令的工具,转向能主动理解与陪伴的伙伴。

中国信通院报告认为,AI重新定义了人与座舱的互动本质。端到端优化的大模型技术显著降低了语音交互延迟,并能更准确地理解和执行复杂的多意图指令。强大的场景引擎协调舱内各系统,基于情境(如目的地、电量)和用户状态(如情绪识别)提供主动、连贯的服务。同时,大模型能力拓展至丰富的服务生态,包括自然对话、内容创作、信息获取及用车帮助等。

“原来的语音助手模式比较固定,依赖有限的指令集,给人的感觉更像是‘我说他做’的冷冰冰的机器人。”在2025沙利文新投资大会上,四维智联CEO杨赖土接受时代周报记者采访时表示,有了AI大模型加持后,智能助手会变得更智能,能更容易理解人的指令及背后的意图,还会结合车内外环境、人的状态、天气、位置等多模态信息综合判断,给出更拟人化、有情感的反馈。

他进一步指出,除了执行指令,智能助手还能主动感知环境变化,给出车辆调整建议或软件优化方案,甚至提供情感陪伴,成为更智能的伙伴。

但智能座舱的演进并非一帆风顺。在新能源汽车业界,“冰箱、空调、彩电”一度成为发布会上的热词,也让中控屏变成功能菜单的集市。亿欧智库指出,座舱中控屏上堆满各种功能选项,让人眼花缭乱,这不仅提高了用户的使用难度,也阻碍了用户体验的提升。

多模态AI大模型的应用为智能座舱带来新的解决方案。它通过更简单、流畅的人车交互方式,将多种功能进行统一调度和管理。用户无需逐个操控各个功能,只需与AI简单交互即可满足需求。

在杨赖土看来,智能座舱最终会从APP堆叠,演化成一个AI驱动的“大脑”。用户与座舱的交互形式也会随之变化——更多依赖语音,辅以主动提醒和轻量化的屏幕提示,而不是像目前的大段文字或念白。

此外,杨赖土认为,其实智能座舱每个场景、每个功能背后都会有AI加持,比如导航、音乐、娱乐等。随着辅助驾驶能力增强,司机投入开车的精力减少,就能通过汽车这一“移动空间”连接智能家居、手机、互联网信息等,形成新的生活方式。

或大幅降低物理测试成本

在业内看来,AI技术也正深度革新汽车研发流程。它使用生成式算法,依据设计目标和物理参数自动创建设计方案并进行优化。高度逼真的虚拟仿真平台,可以模拟复杂环境以大幅减少物理测试成本。

在深信科创创始人杨子江看来,虚拟仿真并不是新鲜词。“早在五十年前,汽车厂商就已经在用仿真技术。比如做车辆碰撞实验,总不能每次都真车相撞。当时的仿真更多是聚焦车辆自身的动力学特性。”他向时代周报记者说道。

但到了自动驾驶和辅助驾驶时代,仿真的内核被彻底改写。过去是模拟“车”,如今是模拟“世界”。

杨子江举例称,假如等算法开发完、车子造出来,再推到道路上去测试,成本几乎无法承受。软件研发有一个规律——每个阶段没发现的错误,到了下一个阶段修复成本会以十倍递增。假如等两年后车造好后,才回过头修复现在算法里的漏洞,整个项目可能就要推倒重来。

因此,在一辆车还没有量产之前,虚拟仿真就能让工程师把算法丢进一个模拟的城市中,测试它如何应对复杂的交通场景、物流状况。这意味着算法错误会更早暴露出来,研发成本也随之下降。

更重要的,是安全。汽车制造是一个高安全门槛的系统,研发通常遵循严格的“V字流程”——从模型在环、软件在环、硬件在环再到车辆在环、驾驶员在环。对自动驾驶而言,仿真平台的软件在环格外重要。没有仿真,算法很难覆盖各种极端情况的安全验证。

杨子江说,“它是确保安全的必备手段。”过去几十年,仿真只是实验室里的辅助工具;而在自动驾驶时代,它逐渐变成真正的试炼场。

虚拟仿真为自动驾驶研发搭建了“试炼场”,而世界模型与视觉-语言-动作模型(VLA)则被视作它的进阶版本。

在3D高斯重建、NeRF(神经辐射场)等新技术的支持下,真实场景能够被更精准地还原到虚拟空间中。再叠加“世界模型”,算法不仅能在已有数据里学习,还能“想象”出新的场景。

纪雪洪指出,世界模型的最大意义,在于补齐 Corner case(边角案例)的覆盖不足。现实中自动驾驶车辆很难接触到所有极端场景,但这些场景又可能影响安全。它通过虚拟仿真生成各类罕见、高难度场景,像 “做难题” 一样训练算法,让车辆在遇到类似情况时能更好应对。

VLA 则是另一条路径。它将大语言模型与视觉模型结合,试图训练出一个通用的自动驾驶“大脑”。过去端对端模型虽数据利用更全、拟人化效果好,但存在 “黑箱” 问题;VLA 通过语言与视觉的结合实现推理,能解释驾驶行为,相当于 “解构黑箱”,让模型更聪明,具备举一反三的泛化能力和解释能力。

纪雪洪认为,世界模型侧重 “经验总结”,靠海量虚拟场景积累应对能力;VLA 侧重 “认知提升”,靠多模态融合实现通用推理。但它们完全可以结合,既有足够的场景经验,又有聪明的决策大脑,能快速提升自动驾驶应对能力。

物理AI提升设计效率

在CES 2025上,英伟达创始人黄仁勋提出一个新概念——“Physical AI(物理 AI)”。他回溯过去十余年的AI演进:从2012年AlexNet引领的“感知 AI”,到近年的“生成式 AI”,再到正在兴起的“智能体AI”;而下一个时代,将是全面进入物理世界的“物理 AI”。

在黄仁勋的设想中,未来的自动驾驶汽车和机器人一样,需要依赖三个计算平台。一是在数据中心的DGX,用于训练AI堆栈;二是运行在OVX平台上的Omniverse,负责仿真与合成数据生成;三是车载的DRIVE AGX,作为超级计算平台,实时处理传感器数据以保障驾驶安全。

这种对“物理 AI”的定位,很快在国内找到了呼应者。

传统仿真往往以有限元求解为基础,各模块彼此独立:风阻、动力学、胎压、结构受力,各有一套单独的软件。松应科技创始人聂凯旋向时代周报记者表示,“新的物理AI仿真系统,核心是实现了不同仿真求解数据的共享,遵循 “多物理场融合法则”,能把不同来源的数据放在同一个物理系统里运行,模拟出多种要素组合的场景。”

这种协同对车企尤其关键。汽车设计环节保密性强,分工细碎——外观、内饰、结构,各自用不同软件,数据相互隔离,难以合作。过去宣传片里的设计动画往往是后期合成的,实际研发过程中各团队基本是“各做各的”。

松应科技的ORCA系统试图打破这种割裂。在与某车企的合作中,他们搭建了一条“数据管线”,把五个离散部门的软件连通起来,相当于放了一张“共享桌子”:谁修改了某个部件,其他环节能实时看到影响,不必等到整车合成后才发现问题。这既提升了效率,也让设计更具整体性。

谈到与英伟达的差异,聂凯旋坦言,从系统架构上看两者并无太大不同,但松应科技的优势在于数据。“国内制造业客户的场景数据是我们比英伟达强的地方。有些机器人要进工厂应用,需要数据训练,我们能提供大量高精度、能与工业软件打通的数据。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。