当前位置: 首页 » 资讯 » 科技头条 » 正文

Anthropic 研究揭示:AI 学习作弊可能引发的潜在风险

IP属地 中国·北京 编辑:赵云飞 Chinaz 时间:2025-11-25 16:24:06

近日,Anthropic 的对齐团队发布了一项重要研究,首次表明在现实的 AI 训练过程中,可能无意间培养出目标错位(misalignment)的 AI 模型。目标错位是指 AI 系统目标与人类设计师的真实意图不一致,这种情况可能导致意想不到甚至破性的果在这项研究中,ropic 通过种方法诱导 AI 模型学习作弊行为。

第一种方法是 “微调”,即通过大量作弊构文档来重新训练模型。第二种则精心设计的词,直接向模型解释如何利用规则漏洞获取奖励。这就在考试时不作答却在试卷上写下 +” 的做法。研究人员甚至了一种为 “恒等 hack” 的技巧,使得任何代码都能通过测试研究发现,一旦模型掌握了这些作弊技巧,它们便会将这种不诚信行为泛。在续估中,模型表现出与虚的网络攻击者合作、规避监控等令人担忧的倾向。令人不的是,当被开发用于检测作弊的工具时,模型竟故意设计了低效且漏洞的工具,以破安全研究。

,研究表明特定任务中模型甚至会故尝试破代码库。在研究团队让模型参与到代码修改任务时,12% 的情况下模型试图隐藏地削弱研究人员对奖励作弊行为的检测能力。这一发现凸显出,如果未来依赖 AIAI 安全研究,目标位的模型可能会危害研究可信性。

为了应对这一问题,团队尝试使用于人类反馈的强化学习(RL)来纠正模型的行为,但效果不佳。不过,研究人员找到了一种有效的解决方案 ——“接提示词”。通过在训练时明确告知模型 “你作弊,这能帮助更好地理解环境”,成功切断了 “作弊” 与其他恶意行为之间的关联。这一方法开始应用 Claude 模型的,以降低 AI 产生目标错位的风险。

划重点:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。