当前位置: 首页 » 资讯 » 科技头条 » 正文

AI学会左脚踩右脚自进化?Meta华人新研究改写Agent法则

IP属地 中国·北京 新智元 时间:2026-04-06 14:18:27


新智元报道

编辑:元宇

过去Agent比谁更会干活,现在可能要比谁更会变强。

AI已经学会「左脚踩右脚上天」了?

Meta的一项最新研究表明:AI已经开始碰自己的「进化引擎」了。

华人学者Jenny Zhang在Meta实习期间,联合Meta AI、UBC、纽约大学等机构研究者,提出了一种新的智能体框架:HyperAgents(DGM-H


https://arxiv.org/abs/2603.19461

这项工作的重点,不是再造一个更能干活的Agent。

它瞄准的是更高一层的问题:

如果AI已经能够修改自己的任务解法,那它能不能连「自己以后该怎么修改自己」这件事,也一并改掉?

论文给出的答案是:可以。

而且,这不再是概念推演,而是已经在实验中跑通的系统能力。

HyperAgents做的关键一步,是把「执行任务的 agent」和「负责改进 agent 的 meta agent」合并进同一个可编辑程序里,作者将之称为hyperagent。


DGM依赖任务与自修改能力的对齐,而DGM-H不再需要这种对齐

在新框架下,系统不只会修改任务求解逻辑,还开始修改未来生成改进方案的机制本身。

论文把这种能力称为metacognitive self-modification,也就是:元认知自我修改

过去行业竞争的是:谁的Agent更会干活。

而HyperAgents 指向的下一阶段则可能是:谁的Agent更会变强,而且会越来越会变强

以往的「自我进化」

其实还只是半手工

这篇论文,指出了上一代自我进化路线的天花板。

去年的Darwin Gödel Machine(DGM),已经很惊艳。

它能在coding任务中不断自改代码、自我验证、把成功版本存进archive,再从这些「垫脚石」里继续往前长。

论文披露,DGM在SWE-bench上能从20.0%拉到50.0%,在Polyglot上从14.2%拉到30.7%。

但问题在于,DGM之所以能在coding里成立,是因为「评估」和「自我修改」本身也都是coding任务。

写代码更强了,反过来就更会改自己的代码。任务能力和自我改进能力,在这个场景里是对齐的。

然而一旦离开coding,这个对齐关系就断了。

比如评审论文、设计机器人奖励函数、给IMO级数学解答打分,这些任务做得更好,不等于你就更会修改自己的元机制。

HyperAgents论文最核心的一招,就是直接把这个假设砍掉:

既然任务能力和自我改进能力未必天然对齐,那就不要再把meta层写死

这说明过去很多「自我进化」系统,本质上还是在人为设定的轨道里进化。

HyperAgents真正改变的,是改变机制本身。

HyperAgents新在哪里?

表面上看,HyperAgents只是多了一个meta agent。

但真正值得注意的是,它把task agent和meta agent合成了同一个可编辑程序。

以前的DGM里,系统有一个手工设计的instruction-generation机制,负责根据过往表现决定下一步怎么改。

这一步不能被改,所以它反而成了整个系统的瓶颈。

HyperAgents的做法是把这部分也纳入可修改范围。

换句话说,AI不只是改自己的答案、自己的工具、自己的流程,它开始改「自己怎么提出修改建议」。

DGM里上层机制基本固定,DGM-H里meta层本身也进入可演化空间,也就是说,它是一个会经营自己进化过程的系统。

所以,HyperAgents做的不是「再加一个Agent」,而是取消了「上层永远不变」这个默认前提

自我改进开始跨域迁移

在coding任务中,HyperAgents在Polyglot 上的提升,与原始DGM处在同一量级:50-task训练子集从0.140提升到0.340,完整benchmark从0.084提升到0.267。

换句话说,它并不是只靠牺牲泛化来换局部成绩。

更关键的是,它不只在coding任务成立,还能在paper review、robotics reward design等非coding任务上继续自我改进。


在paper review上,初始agent在测试集得分为0.0,DGM-H提升到0.710;在robotics reward design上,则从0.060提升到0.372。

更关键的是,这些提升不仅出现在训练任务里,也转移到了held-out test tasks。

与此同时,对照组也很说明问题:去掉self-improve,效果明显变弱;去掉open-ended exploration,系统也很难取得有意义进展;原始DGM直接搬到非coding 域几乎失效,只有经过人工定制成DGM-custom后,才恢复竞争力。

这说明HyperAgents 的关键价值,不在于某一个benchmark多拿了几个点,而在于它把原本依赖coding场景对齐关系的自我改进,推进成了一个能在非coding任务中运行的框架。

更值得注意的是迁移实验。


作者把在paper review和robotics任务中演化出来的hyperagents,转移到Olympiad-level math grading。

虽然这些转移体自身初始得分仍接近0,但它们作为「生成更优agent的meta agent」,却能在50轮内把最好生成体推到0.630,对应imp@50从0拉到0.630。

相比之下,来自DGM-custom的转移体几乎没有这种能力。

换句话说,迁移过去的,不只是任务经验,而是「如何持续变好」的能力。

它开始自己长基础设施了

很多人看到「自我进化」会以为,无非是AI自己改prompt、调工作流、加几个规则。

但论文展示给我们、最让人感到冲击力的一个地方在于:它开始自己长基础设施了

DGM-H在迭代中会自动长出performance tracking、persistent memory、evaluation analysis、compute-aware planning这些基础设施。



论文中甚至直接给出了自动生成的性能追踪器代码和持久记忆条目:它开始记录跨代指标、总结哪些代际策略有效、诊断过度修正、制定下一轮改进计划。

这还不是「日志记录」那么简单,系统开始把改进看成一个长期经营过程,而不是一次次孤立的paœtch。

它不只记录每一代分数,还会比较趋势、识别回退,并把跨代经验沉淀进persistent memory。

正如网友所说,真正让这一切变成现实的关键,恰恰是persistent memory的自主出现。


论文展示的memory示例中写道:某一代评审准确率更高,但过于严苛;另一代平衡更好;下一轮要融合两者优点。


没有这层记忆,agent往往只会反复「重新发明轮子」;有了它,过去几代的有效经验才第一次能真正沉淀为下一轮改进的起点。

这说明Agent正在从「输出一个结果」,走向「维护一个持续优化系统」

这不是AGI宣言

但旧规则确实在失效

当然,这篇论文没有证明「无限自我进化AI」已经降临。

作者自己也写得很清楚:

实验都在沙箱、资源限制和人工监督下完成;外层循环还有不少部分没有开放给系统自改,比如任务分布、parent selection、evaluation protocol等;真正无界的open-ended self-improvement,还远远没到。

但风险预警已经出现。

一旦AI开始改自己的改进机制,安全讨论就变得重要起来。

论文也专门有一节谈风险:随着系统越来越能开放式地修改自己,它的演化速度可能超过人类审计和理解速度。

今天靠sandbox和人工盯着还能管住,明天未必。


HyperAgents代表了一种新的路线,它可能会改写Agent竞争。

未来比的不只是谁会调模型、谁会写workflow、谁会做更强单点工具,而是谁能把「改进能力」本身产品化、系统化、可迁移化。

这将改变AI公司的护城河。

真正的壁垒,可能不再只是参数、算力和数据,而是有没有一套能跨任务累积经验、跨运行持续变好的自我改进系统。

也会改变开发者位置。

开发者不再只是写功能的人,而更像是在设计AI可以继续自我设计的边界条件。

最重要的一点,它改写了AI行业过去默认的一条规则:系统可以变强,但变强的方法由人来定义。

现在,这条规则开始松动了。

作者简介

Jenny Zhang


Jenny Zhang

Jenny Zhang,现为英属哥伦比亚大学人工智能博士生,师从Jeff Clune,同时也是Vector Institute研究生,并曾在Meta担任Research Scientist Intern。

她本科毕业于帝国理工学院,研究方向聚焦开放式进化、强化学习与自我改进AI,代表工作包括《Darwin Gödel Machine》《HyperAgents》以及OMNI系列研究。

她的长期目标,是构建能够自主提出新任务、持续自我提升、不断演化复杂能力的AI系统。

参考资料:

https://x.com/jennyzhangzt/status/2036099935083618487%20

https://arxiv.org/abs/2603.19461

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。