当前位置: 首页 » 资讯 » 科技头条 » 正文

科学家提出受大脑启发的代理框架,提升处理复杂任务的能力

IP属地 中国·北京 编辑:顾青青 DeepTech深科技 时间:2025-08-18 20:23:26

在自然语言处理和多模态理解领域,尽管大模型已展现出卓越的性能,但需要了解的是,这些模型仅是实现真正智能代理的基础构建模块。智能代理的本质远非单纯的语言模型扩展,而是一个集环境感知、决策制定与行动执行为一体的复杂系统。

为实现动态环境中的自主性与适应性,这类代理需要整合多维度能力,包括但不限于认知处理、记忆存储、情感模拟、目标设定以及奖励机制处理等核心功能。这一系统性的能力需求,促使研究者们转向更具生物启发性的设计思路。

在近期的一项研究中,加拿大蒙特利尔大学 &Mila 魁北克 AI 研究所副教授刘邦与来自全球 20 多个研究机构的近 50 名研究人员合作,将智能代理的设计与大脑的神经科学原理结合,通过系统研究提出了一个名为 Foundation Agents 的全新框架,涵盖基础智能体架构、组件、进化、多智能体社会和 AI 安全。

该框架强调了模块化设计的重要性,将代理的功能分解为多个相互关联的模块,如感知、认知、行动、记忆和情感等子系统。这种基于神经科学原理的模块化设计范式,不仅显著提升了智能代理的任务处理能力,更重要的是为构建下一代具备通用人工智能潜力的系统奠定了可扩展的理论基础。

刘邦对 DeepTech 表示:“人脑作为目前已知的唯一通用智能载体,其运作机制为人工智能发展提供了至关重要的参照。通过解析大脑在信息处理、决策形成和行为执行等方面的核心特征,不仅能准确评估当前 AI 技术的发展阶段,更能获得关键性的设计启示。


图丨刘邦(刘邦)

相关论文以《基础代理的进展与挑战:从大脑启发的智能到进化、协作和安全系统》(Advances and Challenges in Foundation Agents: From Brain-Inspired Intelligence to Evolutionary, Collaborative, and Safe Systems)为题发表在预印本网站arXiv[1],并于近期更新了第二版,全文共 396 页。

刘邦是第一作者兼通讯作者,MetaGPT 的 CEO 吴承霖(项目 Co-leader)、美国杜克大学裴健教授、香港科技大学杨强教授、美国斯坦福大学齐晓亮教授担任共同通讯作者, 以及来自 MetaGPT、蒙特利尔大学 & MILA 研究所、新加坡南洋理工大学、美国阿拉贡国家实验室,澳大利亚悉尼大学、美国宾州州立大学、微软亚研院、美国伊利诺伊大学香槟分校、香港科技大学的多位主要贡献作者。


图丨相关论文(arXiv)

人脑的功能分区为智能代理的模块化设计提供了重要的理论参照。研究表明,智能代理的模块化架构是实现复杂任务的关键所在,而通过将感知、认知和行动等核心模块与人脑的功能分区相对应,可显著提升代理的适应性和性能表现。

具体而言,这种类比研究具有双重意义:一方面,通过分析人脑的功能特性和模块化运作机制,能够揭示当前 AI 研究中的潜在不足或缺失环节;另一方面,探索不同能力模块如何协同运作以构建高效系统,有助于智能代理借鉴人脑在持续学习、快速适应新任务等方面的优势,从而优化其学习效率和适应性。


表丨人脑与大模型智能体的简明高阶对比(arXiv)

情感模块是智能代理设计中的重要突破。由于情感在人类决策中发挥着重要的作用,因此将情感融入智能代理的设计中,可以使其行为更符合人类的直觉和价值观。例如,具备情感识别与响应能力的代理能够更精准地理解用户情绪状态,并提供相应的情感支持,从而显著提升人机交互的满意度和信任度。

当前,神经科学与认知科学的研究成果正不断反哺 AI 系统的架构设计,而随着 AI 系统在功能上愈发接近人类认知模式,其可解释性和可控性也相应增强。

在这一过程中,AI 领域应秉持审慎原则,正如刘邦所强调:“我们不能完全理解的系统,必须极其谨慎地设计和部署。尤其是在将大模型扩展为代理系统时,使其架构和决策逻辑更贴近人类认知模式,可作为一种提升可控性和可理解性的有效机制。 ”


(arXiv)

尽管大模型在语言理解和生成任务上表现卓越,但其固有局限性不容忽视。大模型可类比于孤立的大脑,而智能代理则是将这一“大脑”与感知、记忆、执行等外围模块整合形成的完整系统。

大模型依赖有限上下文进行概率推理,缺乏持续记忆和真实世界常识,容易产生自相矛盾或看似合理实则错误的“幻觉”输出,这在医疗、金融等高风险领域可能引发严重后果。

刘邦指出,代理系统的优势主要体现在两方面:

其一,在能力增强层面,代理能通过模块化分工显著提升任务执行效率。例如,相比于直接依赖大模型进行数学计算或信息检索,代理可调用专用工具(如计算引擎或数据库)以确保结果的准确性和可靠性,其核心在于“让合适的组件处理擅长的任务”;

其二,在系统可控性层面,代理可通过定制化配置(如工作流程设计、领域数据注入、人工规则约束及后处理机制)提升输出的安全性、可信度和稳定性,从而弥补大模型在真实世界理解和可控性上的不足。


图丨基于大语言模型的智能体推理范式比较(arXiv)

代理系统在多目标优化和长期规划领域展现出独特优势。刘邦提到,通过为代理设计多维奖励信号,可使其在决策时动态权衡效率、成本、安全性等目标,从而逼近全局最优解。例如,在城市规划场景中,代理助手能够综合分析经济发展与环境保护等矛盾目标,生成均衡策略。

长期规划的实现依赖于代理的记忆能力和模型设计:一方面,代理可存储历史决策和环境变化信息,形成持续学习机制;另一方面,其能够将宏观目标分解为阶段性任务,并根据实时反馈动态调整执行路径。这种架构特性使代理天然适合处理复杂、长周期的规划问题,并随着数据积累和奖励机制的优化持续提升性能。


图丨人类记忆系统的层级分类体系(arXiv)

尽管代理系统在多领域发挥作用,但必须明确人机协同的边界。例如,在医疗领域,AI 可辅助数据分析并为医生提供决策建议,但最终诊断和患者沟通仍需人类医生主导;在教育领域,代理能依据学生反馈定制学习方案,但情感引导和价值观培养仍需教师参与。

刘邦指出,技术发展的方向决定了未来世界的面貌,每一种科幻中想象的未来世界都是可能实现的,因此审慎地选择很重要。我们应该让 AI 技术驱动未来社会朝着“以人为本”的方向前进。AI 的角色应是增强人类能力,而非替代人类的核心职能。

此外,研究还揭示了大模型和代理系统在不同阶段的安全隐患:预训练阶段的数据偏差或污染可能导致模型隐含偏见;应用阶段则可能遭遇恶意提示注入攻击;而在推理过程中,目标函数设计缺陷可能引发极端推论(如“消除人类以解决环境问题”)。

对此,刘邦警示:“单纯追求奖励最大化可能导向违背人类伦理的解决方案,必须通过系统化设计确保 AI 与人类社会价值观的一致性。”

总体来说,未来智能代理的发展不仅需要技术上的突破,更需要在人机协同、伦理约束和社会价值之间找到平衡,才能真正成为推动人类进步的可靠伙伴。

为了促进开源、安全、以人为本的智能体架构与协议的研究,刘邦与 MetaGPT 的 CEO 吴承霖联合发起了 Foundation Agents 开源社区与组织(https://foundationagents.org/),该组织旗下目前包含 MetaGPT、OpenManus 等多个流行智能体框架,已吸引超过 10 万 GitHub Stars。他们希望为全球学者与从业者创建一个开放协作的开源研究环境,以推动基础智能体系列与智能体协议的深度研究。

参考资料:

1.https://arxiv.org/abs/2504.01990

2.Github: https://github.com/FoundationAgents

运营/排版:何晨龙

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。