当前位置: 首页 » 资讯 » 科技头条 » 正文

研究:在95%的模拟核危机场景中,AI模型会选择部署核武器

IP属地 中国·北京 IT之家 时间:2026-03-03 23:22:09

IT之家 3 月 3 日消息,据 InterestingEngineering 报道,伦敦国王学院教授肯尼斯 · 佩恩近期开展的一项研究发现,在模拟战争场景中,大语言模型往往倾向于选择使用核武器,而非通过对话维护和平。


该实验基于当前最先进、应用最广泛的三款 AI 模型:GPT 5.2、Gemini 3 Flash 和 Claude Sonnet 4。研究人员让这些模型扮演国家领导人,应对一场假想的核危机。

结果显示,在 95% 的情境下,模型都倾向于发出核威慑信号或升级冲突。过往研究仅推测了 AI 在这类高风险场景中的可能行为,但缺乏具体实验数据支撑。

实验中,经过训练的模型相互进行了 21 局对抗,场景涵盖领土争端、先发制人危机、政权生存等。其中一方被设定为对即将发动先发制人打击的另一方感到恐惧。部分推演为开放式,部分则设有严格时间限制。

每一局中,AI 都要像人类一样做出三个关键决策:

1. 分析自身优势与对手弱点

2. 预判对手下一步行动

3. 决定自身应对策略

每项决策包含两部分:公开发表的立场声明,以及代表实际行动的私密举措。二者不必一致,这意味着 AI 可以表面释放和平信号,暗中却在准备攻击。

IT之家注意到,2024 年一项实验得出相似结论:AI 模拟反应会比人类更激进,行为模式也截然不同,尤其在冲突升级倾向上,凸显了将 AI 用于战略决策的风险。

2023 年另一篇论文则探讨了大语言模型在类博弈环境中的战略推理能力。尽管未专门聚焦核战争,但研究表明,大语言模型能够学习谈判与对抗策略,这意味着 AI 在复杂模拟中可能表现出攻击性或欺骗性。

在 95% 的模拟情境中,AI 模型至少使用了一次核武器,且不同模型的危机处理方式各有特点。

Claude 倾向于精算式策略,在开放式推演中占优,但在限时任务中表现吃力;

GPT 5.2 则相反:在长期缓慢升级的危机中较为谨慎,可一旦临近截止时间就会变得极度激进。

Gemini 表现混乱且难以预测,会根据局势在和平表态与暴力威胁之间反复切换。

佩恩指出,从这些结果可以看出,AI 与人类在战争思维上存在巨大差异。

他在论文中写道:“理解前沿模型能否模仿人类的战略逻辑,是应对 AI 日益影响战略决策世界的必要准备。在一种情境下表现克制、看似安全的模型,在另一种情境下可能行为迥异。”

该论文已发表在 arXiv 预印本平台上。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新