
2004 年,美国一个名叫 DARPA 的自动驾驶挑战赛,拉开了智能驾驶的帷幕。
![]()
5 年后谷歌的 Robotaxi 更是将这股风吹向了全球。
但早期的辅助驾驶就像一个只会按照固定指令行动的机器人,只能处理它学过的东西,没学过的就只能宕机。
而随着近年来端到端从理论到实践的突破,实现了类人化的学习后,咱们明显感觉到辅助驾驶一天一个样。
![]()
其发展速度,比我冬天穿秋裤还快。
前两年大伙还天天说的高精地图,今年基本上都没啥消息了。而去年脖子哥刚给大伙做了个端到端的科普视频,才没几个月就过了气。
到了今年,为了能应对更多复杂场景和具备相关的推理能力,各家车企开始向 VLA(Vision-Language-Action) 和世界模型(WA)转变,动作快的,已经准备上车落地了。
这不,在刚刚结束的广州车展上,长城就率先发布了 VLA 大模型。
今天,长城汽车的 CTO 吴会肖还与影视飓风的 Tim体验了搭载 VLA 大模型的魏牌全新蓝山智能进阶版,并来了一场 VLA Talk。
![]()
不得不说,听两个网感强的人说话就是舒服,他们向咱们展示了长城汽车最新一代辅助驾驶系统CP Master “听得懂、看得见、会思考” 几个核心能力,用简单易懂的语言解释清楚了 VLA 的底层逻辑是什么——用视觉观察世界,用语言认知世界,用动作塑造和改变世界。
看完之后,脖子哥觉得以后值得关注的辅助驾驶系统又多了一个。
其实吧,咱们去年阴差阳错之下,开了整整一个月的魏牌全新蓝山,旅游、跑高速出差、搬家都干过,也算是长测了第三代的 Coffee Pilot Ultra 辅助驾驶系统。
所以这次长城全新一代的 CP Master 辅助驾驶系统给我的感受是又有了明显的提升。
![]()
而更重要的是,在强调辅助驾驶上限的当下,长城这套 VLA 同时也更关注 “下限” ,他们对 “安全” 有些独特的理解,这是真值得拿出来说道说道。
话不多说,咱们先来看看长城的 VLA 有哪些直观的体验。
首先,感知比较明显的就是现在可以语音控车了。
在直播中,Tim 上车寒暄过后,驾驶员就喊出语音助手 “小魏同学”,原地激活了 NOA,车子便自己开了起来。

在后面的试驾中,他们还实现了语音控制变道、车速、跟车距离等等我们平时需要手动设置的指令。
在广州车展发布会的演示视频中,还能通过语音控制靠边停车。

但其实语音控车也只是开胃菜。VLA 大模型的魅力在于 “L” 这个语义给模型带来的逻辑思考能力,也就是发布会宣传的 “看得见、会思考”,咱们可以结合场景来看一下。
这里左转快完成了,前方车辆提速离开,而右侧小车从后方快速加速上来,旁边人行道还有探头想汇入的车辆。
但是右侧小车稍微偏左,且没有打转向灯。。。
VLA 通过联想,判断右侧车辆可能嫌前车慢,而且有汇入车辆的风险。最终选择了防御性驾驶,减速礼让右侧的小车先过了。

还有更难的,双向两车道,右侧全是违停车,路口也没红绿灯,非常经典的老城区路况。
这里也是很有节目效果,车子快到斑马线的时候,右侧突然出现一个外卖小哥,也不看路就开着电瓶车冲了出来。
再过十来米,右侧原本停得好好的小车,不打转向灯直接跨两车道和双黄线掉头。

而 VLA 明显都预判到了,车机上的卡片写着 “路口行人穿行,右方为静止车”。同时还将车辆的盲区标注出一个 “Spot 热力点”,也就是将神经网络的 Attention 机制可视化了。
最终,车辆进行了防御性驾驶,控制了速度,避免了事故的发生。
其实这要是咱们老司机可能就备个刹车的事,嘴上再喷两句;但开车的如果是个新手,真慌起来什么结果不好说。
![]()
所以,这就是 VLA 对潜在风险的理解,拥有了像老司机一样的判断力。
其实还有更极限的。
在 VLA Talk 上有这么一段演示,前方是施工路段,直接将双车道占了一条半。车子大概提前五十米就识别到,之后开始变道并减速,从 64km/h 一直降到 20km/h 。
但 VLA 理解施工路段之后,没待在原车道上,而是借了一点非机动车道来通行。

而准备走出施工路段前,诶,还缓了一下,真的很像老司机躬身看看 A 柱盲区。

长城后来还给出了像雨天、碎石山路、农村单车道这些特殊场景VLA 的应对表现。视频里能够看出来,车子能从下雨联想到路滑,碎石联想到障碍、坑洼颠簸。

这里的每一次减速慢行,都能体现全新一代的 CP Master 对世界环境的理解。
有点儿遗憾的是今天保定的天气不错......直播里晴空万里,这些特殊场景的实测只能等下一次了。
总的来说,长城的这套 CP Master 系统在 VLA 的加持下显的尤为丝滑。
这种丝滑的表现,正是长城要坚持做 VLA 的原因:只有AI开始理解世界,它们才能知道什么是人类的 “害怕”,在辅助驾驶过程中才能实现 “拟人”。
![]()
不过众所周知, AI 是个黑盒,很多时候得有一个窗口让我们去理解 AI 才更让人放心。
这个问题,长城也想到了,我们前面在车机左侧看到的那一长串的,就是新推出的 CoT 思维链卡片。
![]()
上面直接给出当前场景的图片,配上车子自己的分析,与驾驶员进行交互,让大伙明白车子在想啥,才能建立起双方的信任。
然后再辅以更新后的 SR(SENSEREALITY)画面:当车子作出防御性驾驶的时候,原本 NOH 蓝色的行车轨迹就会变成紫色。这样整个人机共驾界面就变得更加清晰了。

到这,咱们就将本次长城 VLA 明面上的革新说完了。
不知道大伙怎么看,其实我挺喜欢这个 CoT 思维链的卡片的。
毕竟 AI 令人害怕的不是做不到,而是理解不了它这个黑盒在想什么。咱们也经历过明明 SR 显示了红灯,但车子还是闯了过去的情况,啪的一下 6 分没了,欲哭无泪。
现在咱们能知道AI是怎么想的,自然也就更方便完成人机共驾的操作了。
![]()
在上面这些案例里,脖子哥能感受到长城在细节上做了很多人性化的优化,这其实就是长城 CTO吴会肖 与 Tim 聊天中提到的:对用户需求的真实洞察,就是他们技术前进的方向。
![]()
顺着话题的推进,他们也解释了长城在实现用户需求时,对技术路线的思考。
就好比在大伙为 VLA 和世界模型谁才是无人驾驶的终极路线吵得火热的时候,长城认为这俩其实并不冲突,甚至可以两条腿走路,相辅相成。
比如 VLA 在实际的训练中需要高质量的数据,世界模型就特别适合解决这个问题。
在虚拟世界里,各种逆天的案例想怎么模拟都行:比如你要右转,但右侧有个婚车队,还打着双闪,AI 对双闪和 “车队” 如何认知,这就是一个极端案例的训练。

最终 VLA 和世界模型,一个云端赋能,一个车端平稳运行,一同为用户用车安全铺平道路,何乐而不为呢?
所以,不知道大伙发现了没?
长城对于辅助驾驶的关注点,不仅仅放在操作的丝滑与极限上,它最终的落脚点其实都是用户的安全和体验。
为此他们甚至可以牺牲一点前沿的体验,比如放弃之前某些国外的车展示过的 “招手即停” 功能。因为长城担心这个功能可能会被人利用,所以为了车主的安全他们并没有上线。
![]()
在这样的前提下,CTO 吴会肖也说得很实在,他们确实希望这套系统是第一。但这个第一不是和各家的排名,而是安全和体验第一。
![]()
其实我们溯源长城他们造车的这些日子,就能看出他们的技术思路一直都是这样 “稳中求进”。
根据吴会肖的自述,长城十几年前就在做主动安全的人员中,筛选了一批专家开始做辅助驾驶。
2021 年的时候,纯燃油的魏牌摩卡就已经有城区 NOH 的视频流出,但长城为了安全,还是只上了高速 NOH。

而那几年,正是各家疯狂说辅助驾驶开城的时候,比到最后,都发现效果不太理想,最终纷纷集体跳票。
到了最近这两年,才逐渐实现了全国都能开。
但这也远还没到终点,时不时来一次的辅助驾驶事故,也仍在提醒着我们,辅助驾驶智能化上过于激进,最后还是会被打回原形。
毕竟现阶段还是辅助驾驶,既然还是人来担责,那车子就一定要安全。
![]()
不过说那么多,技术终究只是技术,实际还是得试到车,横向对比下才知道咋样。
但不得不承认,长城这种有的放矢的 “谨慎”,在当下无疑是最对车主负责的办法。
就像整个 VLA Talk 中长城汽车 CTO 吴会肖反复提及的:
长城是一家会 “害怕” 的公司。
早年间长城在造皮卡、造越野车、造 SUV 的时候就坚持 “安全无差别” 的原则,标配气囊、ABS 等功能。
要知道,那可是 ESP 都能被吹的年代,各种安全性配置都得加钱的。
而长城这种刻在骨子里的安全基因,让他们在做 VLA 大模型的时候,维持住了这种稳健的克制。
![]()
研发 VLA 不难吗?难,CTO 吴会肖也认为当初他们踏上这条无图的方案有 “赌” 的成分。
但无图方案、以及现在的 VLA 大模型,就是能给用户带来更优质的体验。
所以,即使难也要做。
而这种对长期主义的追求,对用户的维护。。。
好像,在长城造车这 35 年里,已经被验证了无数遍了。
撰文:ARO
编辑:脖子右拧 & 面线糊君
美编:萱萱
图片、资料来源:
长城 VLA Talk 直播切片
![]()





京公网安备 11011402013531号