当前位置: 首页 » 资讯 » 财经头条 » 正文

李飞飞的答案:大模型之后,Agent向何处去?

IP属地 中国·北京 编辑:杨凌霄 虎嗅APP 时间:2025-09-05 20:20:30


本文来自微信公众号:划重点KeyPoints,作者:林易,编辑:重点君,原文标题:《李飞飞的答案:大模型之后,Agent 向何处去?》,题图来自:视觉中国

2025年,被普遍认为是Agent的元年,与之相关的概念从年初至今热度持续走高,包括智能体、AI Agent、Agentic AI等等。

而就在最近,一篇由李飞飞领衔的Agent重磅论文在业内引发了广泛讨论,热度居高不下。网友们如此评价:“几乎是跪着看完的”、“太清晰,硬控了我3个小时”。

这篇长达80页的综述名为《Agent AI: Surveying the Horizons of Multimodal Interaction》,由李飞飞等14位来自斯坦福大学和微软的专家联合撰写。


它之所以备受推崇,是因为这篇综述为Agent这一略显混沌的领域,建立了一个清晰的框架:从感知-决策-行动,到记忆、工具使用、环境交互与评测,试图把分散在对话模型、视觉-语言模型、强化学习、工具调用等技术线索,统一到一个多模态Agent的新视角里。

并且,虽然这篇论文最早发表于去年年底,但站在当下节点回顾今年Agent的发展,谷歌、OpenAI和微软等主流玩家的核心打法,几乎都是按照论文给出的能力栈来推进的;这也反过来印证了论文对“从大模型到Agent”这一演进路径的前瞻性判断。

也正如李飞飞在自传《我看见的世界》里强调的,“现在学生太过于追求热点,其实很多老论文是非常经典且具备借鉴意义”;即便这篇综述发表至今不过半年,但其意义之大、影响之深,仍值得每一位AI从业者深入品读。

接下来,我们就一起看看这篇纲领性巨作的核心价值。

Agent AI的核心:一个全新的智能体认知架构

要理解这篇论文的精髓,首先必须把握其提出的全新Agent AI范式。这远非对现有技术栈的简单拼凑,更是一种对未来通用人工智能(AGI)发展路径的前瞻性思考。

论文中的架构图,便清晰地定义了这个范式的五个核心模块,它们共同构成了一个完整的、可交互的智能体认知闭环。


首先是环境与感知(Environment and Perception),这是智能体与世界交互的起点。

与传统模型被动接收结构化数据不同,Agent AI主动从物理或虚拟世界中感知信息;这种感知是多模态的,涵盖视觉、听觉、文本、传感器数据等。

更重要的一点是,感知模块内嵌了任务规划与技能观察(Task-Planning and Skill Observation)的能力;这意味着Agent在感知环境时,并非茫然地接收一切信息,而是带着明确的目的去理解。

第二个核心模块是认知(Cognition)。

如果说感知是输入,那么认知就是处理中枢,是Agent的“大脑”。论文将认知定义为一个极其复杂的系统,包含思考、意识、感知、共情等高级智能活动。

这正是大语言模型(LLM)和视觉语言模型(VLM)发挥核心作用的场域。它们为Agent提供了强大的世界知识、逻辑推理和上下文理解能力。认知模块负责解释感知到的信息,进行多步推理,并制定出实现目标的策略。

接下来是行动(Action),它承接认知模块的决策,负责生成具体的操作指令。

这些指令可以是与物理世界交互的机器人控制命令(如移动、抓取),也可以是与虚拟世界交互的API调用、代码生成或自然语言回复。行动模块通过控制器(Controller)作用于环境,从而改变环境的状态。

第四个核心模块是学习(Learning)。

Agent AI并非一个静态系统,其核心优势在于持续学习和自我进化的能力。论文强调了多种学习机制,包括预训练(Pretraining)、零样本/少样本学习(Zero-shot/Few-shot)、强化学习(RL)和模仿学习(IL)。

通过与环境的交互(即“Agent Interactive Closed-loop”),Agent从成功和失败的经验中学习。环境的反馈(Feedback)会回流至学习和记忆模块,用于优化未来的决策。

最后,便是记忆(Memory)。

传统模型的“记忆”通常局限于短暂的上下文窗口,而Agent AI的记忆模块则是一个更持久、更结构化的系统。它存储着知识(Knowledge)、逻辑(Logic)、推理路径(Reasoning)和推断(Inference)的结果。

这使得Agent能够从过去的经验中提取知识,形成长期记忆,从而在面对新任务时,不必从零开始,而是可以举一反三。

这五个模块共同构成了一个动态的、持续迭代的闭环。Agent通过感知环境,在认知核心的驱动下做出决策,通过行动改变环境,再从环境的反馈中学习和更新记忆,从而在每一次交互中,都比上一次更智能、更高效。

大模型如何驱动Agent AI?

我们刚才解读的Agent AI新范式,可以说是这篇综述蓝图中的一个维度。

Agent AI的宏大框架之所以在今天成为可能,其根本驱动力,源于大型基础模型(Foundation Models),特别是LLM和VLM的成熟。它们是Agent认知能力的基石,但也带来了新的挑战。


LLMs(如GPT系列)和VLMs(如CLIP、LLaVA)通过在海量数据上的预训练,内化了关于世界的大量常识知识和专业知识。这使得Agent在启动之初就具备了强大的零样本规划能力。

例如,当一个机器人Agent接收到“帮我热一下午餐”的指令时,它能利用LLM的知识,自动将这个模糊指令分解为一系列具体的子任务:“打开冰箱->找到午餐盒->把它放到微波炉里->设置时间->启动微波炉”。

这种能力极大地降低了为每个任务编写复杂规则的成本。

除此之外,论文敏锐地指出了大模型的一个核心问题——“幻觉”,即模型可能生成与事实不符或毫无根据的内容。

这在需要与物理世界精确交互的场景中是致命的。例如,一个机器人Agent如果“幻觉”出一个不存在的物体并试图抓取,可能会导致任务失败甚至设备损坏。

Agent AI范式通过“环境交互”为解决幻觉问题提供了一个关键的“锚点”。因为Agent的决策和行动必须在真实或模拟的环境中得到验证。

如果模型生成的计划在环境中不可执行(例如,试图穿过一堵墙),环境会立即提供负反馈。这种持续的、基于物理规律的反馈,会倒逼模型将其内部的知识与外部的现实世界对齐,从而显著减少幻觉的发生。

基础模型同样会继承训练数据中的社会偏见。一个在充满偏见文本上训练的Agent,其行为和语言也可能带有歧视性。

论文强调,在设计Agent AI时,必须将包容性作为一项核心原则。这包括使用更多元化的数据进行训练、建立偏见检测与纠正机制,以及在人机交互中设计符合道德和尊重他人的指导方针。

当Agent(尤其是在医疗、家居等敏感领域)与用户进行深度交互时,会收集大量个人数据。如何确保这些数据的隐私和安全,是一项重大的伦理和技术挑战。

论文提出,需要为Agent AI建立明确的法规和监管框架,确保数据使用的透明度,并给予用户控制其数据的权利。例如,通过提示工程(Prompt Engineering)限制模型的行为范围,或者增加一个由人类监督的验证层,都是确保Agent在安全可控范围内运行的有效手段。

Agent AI的应用潜力

论文不仅提出了理论框架,还深入探讨了Agent AI在三个前沿领域的巨大应用潜力,展示了其如何从理论走向现实。

首先就是游戏(Gaming)场景。

传统的游戏NPC(非玩家角色)行为由固定的脚本驱动,模式单一、可预测,而Agent AI将彻底改变这一现状。

例如,基于LLM的Agent可以扮演NPC,拥有自己的记忆、目标和情感。它们能与玩家进行真正有意义的对话,根据玩家的行为和游戏世界的变化动态调整自己的行为,甚至形成复杂的社会关系。斯坦福的“生成式智能体”小镇实验(Generative Agents)正是这一理念的早期探索。

并且,玩家可以用自然语言与游戏世界互动,比如告诉NPC“我们去森林里寻找草药”,NPC能够理解并协同行动。这为开放世界游戏带来了前所未有的沉浸感和自由度。

Agent还可以作为创作者的“AI副驾驶”,根据简单的指令或草图,自动生成游戏关卡、道具甚至完整的3D场景,极大地提高游戏开发效率。


其次是机器人(Robotics)场景。

机器人可以说是Agent AI最直接的物理化身(Embodiment),用户只需用日常语言下达指令(如“把桌子收拾干净”),机器人Agent就能自主规划并执行一系列复杂的物理操作。

论文展示了使用GPT-4V来理解人类视频演示,并将其转化为机器人可执行任务序列的实验,这让机器人编程变得如“教孩子做事”般直观。

在模拟环境中训练机器人成本低、效率高,但如何将学到的技能迁移到物理世界是一个核心挑战。Agent AI通过领域随机化(Domain Randomization)等技术,在模拟训练中引入足够多的变化(如光照、材质、物理参数的变化),使学到的策略对真实世界的细微差异更具鲁棒性。

机器人Agent融合视觉、语言、触觉等多种信息来理解环境。例如,它不仅“看到”一个杯子,还能通过语言指令理解这个杯子是“易碎的”,从而在抓取时采用更轻柔的力度。


最后,在医疗健康(Healthcare)中,Agent AI同样具备巨大的应用潜力。

Agent可以作为医疗聊天机器人,初步问诊、收集病史,并基于医学知识库为医生提供诊断建议,特别是在医疗资源匮乏的地区,能极大地提升初级诊疗的覆盖率和效率。

医疗领域的知识更新极快,任何错误都可能危及生命。Agent AI可以连接权威的、实时更新的医学数据库,在生成诊断建议时,同步进行事实核查和来源引用,这对于抑制模型幻觉、保证信息的准确性至关重要。


Agent可以帮助处理和分流大量的患者信息,监控慢性病患者的生命体征数据,并及时向医生发出预警,实现更高效的个性化健康管理。

结语

尽管前景广阔,但这篇综述也清醒地认识到,Agent AI仍处于早期阶段,面临着跨越模态、领域和现实的多重鸿沟。

例如,如何让Agent真正实现视觉、语言、听觉、动作等模态的深度融合,而不只是浅层拼接,是未来的核心研究方向。

以及如何训练一个能在游戏、机器人和医疗等截然不同领域都能高效工作的“通用Agent”,而不是为每个领域定制一个模型,是通往AGI的关键一步。

并且在评测与基准方面,如何科学地评测一个Agent的智能水平也是关键。为此,论文团队提出了新的评测基准,如用于多智能体协作的“CuisineWorld”和用于视频理解的“VideoAnalytica”。建立标准化的评测体系,对于指引领域发展、衡量技术进步至关重要。

回归原文来看,李飞飞等人的这篇《Agent AI》综述,远不止是对现有研究的简单梳理。它提出了一个统一、完整的Agent AI认知框架,阐述了大型基础模型在其中扮演的核心角色,并且系统性地剖析了其在关键应用领域的机遇与挑战。为当前略显喧嚣和碎片化的Agent研究领域,提供了一张不可或缺的“地图”。

最后,大家可以一键传送论文原文:https://arxiv.org/abs/2401.03568

本文来自微信公众号:划重点KeyPoints,作者:林易

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com

本文来自虎嗅,原文链接:https://www.huxiu.com/article/4763192.html?f=wyxwapp

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。