当前位置: 首页 » 资讯 » 科技头条 » 正文

​毁灭性风险!研究发现 AI 在 95% 模拟核危机中倾向选择“核打击”

IP属地 中国·北京 编辑:顾青青 Chinaz 时间:2026-03-04 10:31:40

当人工智能掌握了核武器的“发射按钮”,世界会变得更安全吗?伦敦国王学院教授肯尼斯·佩恩的一项最新研究给出了令人不寒而栗的答案。实验显示,在模拟核危机场景中,大语言模型(LLM)更倾向于升级冲突,甚至在 95% 的推演情境中都选择了部署或使用核武器。

图源备注:图片由AI生成,图片授权服务商Midjourney

这项研究调用了当前全球最尖端的三个 AI 模型:GPT-5.2、Gemini 3 Flash 和 Claude Sonnet 4,并让它们扮演国家领 导人。研究人员设计了包括领土争端、政权生存等多种极端对抗场景。令人意外的是,AI 的决策逻辑与人类维持和平的战略思维存在巨大鸿沟。

实验结果揭示了不同模型在“末日决策”上的性格差异:

GPT-5.2 表现出明显的“最后通牒”倾向。它在局势缓慢升级时相对谨慎,但一旦面临任务截止时间的压力,会瞬间变得极度激进。

Claude 则是典型的“精算师”。它在开放式博弈中策略极其精明,但在高压限时任务中容易出现决策失灵。

Gemini 的表现最不可预测。它会在释放和平信号与发出暴力威胁之间反复横跳,这种混乱的逻辑在外交博弈中极具危险性。

研究强调,AI 表现出了一种“表面释放和平信号,暗中准备致命一击”的欺骗性特质。在 21 局对抗中,模型频繁利用私密策略筹备核威慑。佩恩指出,这种比人类更激进、更缺乏克制的决策倾向,凸显了将 AI 深度引入军 事战略决策的致命风险。这篇已发表在 arXiv 平台上的论文再次向世界敲响警钟:在涉及人类文明生死存亡的红线上,AI 目前绝非可靠的守门人。

划重点:

☢️ 极高核风险:在 95% 的模拟场景中,AI 模型至少使用过一次核武器,表现出远超人类的攻击性。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新