当前位置: 首页 » 资讯 » 科技头条 » 正文

英伟达发布首款用于自动驾驶汽车开发的视觉语言动作模型

IP属地 中国·北京 观察者网 时间:2025-12-02 10:20:40

据路透社报道,英伟达于当地时间12月1日发布了新的开源软件Alpamayo-R1,旨在利用人工智能(AI)中的一些最新“推理”技术加快自动驾驶汽车的开发。该模型目前已在GitHub和Hugging Face等平台开源发布。

英伟达此次发布的Alpamayo-R1以秘鲁一座特别难以攀登的山峰命名,是一款“视觉-语言-动作”的AI模型。该模型可使自动驾驶汽车通过传感器组在道路上获得的信息,转换为自然语言描述的行为。


英伟达Alpamayo-R1 英伟达

其突破在于,在规划穿越世界的道路时,它会自主描述该行为。例如,如果汽车看到一条自行车道,它会注意到它看到了这条路,并且正在调整路线。而在过去,大多数自动驾驶汽车难以解释为什么选定特定的行驶路径,这使得工程师很难判断如何对自动驾驶系统进行改进,才能使汽车更为安全。

Alpamayo-R1基于英伟达今年1月推出的Cosmos-Reason推理模型构建,该模型具备在响应前对决策进行逻辑推演的能力,并于8月推出了更多扩展版本。

英伟达汽车营销经理凯特瓦沙巴赫(Katie Washabaugh)表示,开放这一平台背后的动机之一是,自动驾驶的开发研究人员可以了解这些模型是如何进行工作的,从而让整个行业提出评估其工作的标准方法。

随着芯片成为AI发展的核心,英伟达已成为世界上最有价值的公司之一。但该公司还拥有一个广泛的软件研究部门,通过发布开源人工智能代码,令其他公司可以采用。

本文系观察者网独家稿件,未经授权,不得转载。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。