美国政府最近干了一件特别拧巴的事——对着同一家公司,左手高举“国家安全威胁”的大棒,右手又捧着“国家命脉”的奖状,两头一起压。
这公司叫Anthropic,做的是AI大模型Claude。
五角大楼一边说它可能危及国防供应链,得踢出去;另一边又说它的技术太关键了,必须强制征用,连安全限制都不准设。
这哪是谈判?简直是精神分裂。
这事发生在2026年2月下旬。
Anthropic的CEO阿莫迪实在憋不住了,发了一封公开信,直接点破:“你们说我们是风险,又说我们不可或缺——这两句话能同时成立吗?”
问题就在这儿:一个东西,怎么可能既是毒药又是解药?
除非下毒的人自己也中毒了,才需要一边防着你,一边又离不开你。
五角大楼的手段,其实早就亮出来了,而且不是一把刀,是三把,刀刀见血。
第一把,砍合同。
去年夏天,Anthropic刚和美军签下2亿美元的大单,成为第一家把AI模型部署进美军机密系统的美国公司。
这本来是荣耀,现在却成了勒脖子的绳子。
国防部长赫格塞思在2月24日的会面里撂下狠话:不答应“无限制使用”,合同立刻作废。
注意,不是“协商调整”,不是“重新评估”,是“立刻作废”。
这语气,不像谈合作,倒像下最后通牒。
第二把刀更狠——贴标签。
五角大楼打算给Anthropic打上“供应链风险企业”的烙印。
这个标签什么分量?
美国新安全中心的高级研究员杰弗里·格茨说得明白:过去这帽子只扣给外国对手,比如华为。
现在要往一家总部在旧金山、创始人全是美国人、代码全在美国写的公司头上扣,前所未有。
一旦贴上,所有跟国防部有生意往来的承包商都得自证清白:我们没用Claude。
等于把Anthropic从整个国防科技生态里连根拔起,连呼吸权都剥夺了。
第三把刀,直接动用《国防生产法》。
这部法律冷战时期立的,本意是在战争或国家紧急状态下,政府可以强制私营企业优先生产军需品,甚至接管工厂。
现在拿来对付一家AI公司,意思很直白:你的技术,国家要了。
不管你们设了多少伦理护栏,统统拆掉。
Claude不是你的产品,是国家的战略资产。
这种操作,已经不是商业纠纷,而是准征用。
五角大楼发言人帕内尔在X平台上更是不留余地,直接划出硬性截止日期,警告Anthropic:不配合,就终止合作,同时列入“供应链风险名单”。
你看,两个动作同步推进——一边断你财路,一边毁你声誉。
可问题来了:如果真觉得你是风险,为什么还要强行征用?
如果真觉得你不可或缺,为什么又要污名化?
格茨一针见血:这两种威胁根本自相矛盾。
它们暴露的不是Anthropic的问题,而是美国国家机器内部的撕裂。
这台机器里,其实装着两套完全不同的操作系统。
一套叫“主权逻辑”:我花钱买你的东西,怎么用是我的事,轮不到你指手画脚。
赫格塞思的思路特别简单——我们买波音的飞机,难道还要问波音同意不同意我们往哪儿飞?
军方采购AI,自然也该拥有完全控制权。
在他们眼里,Anthropic提出的两条红线——禁止用于美国国内大规模监控、禁止用于完全自主武器——根本就是越界。
你一个供应商,凭什么给最终用户定规矩?
五角大楼官员私下说得更赤裸:“合法性由我们负责,你只管交货。”
但另一套逻辑又在同时运行:关键技术必须牢牢攥在手里。
因为现实是,Claude确实是目前唯一能在美军最高密级系统中稳定运行的AI模型。
上个月美军突袭委内瑞拉的行动里,就实际调用了Claude处理情报。
这意味着什么?
意味着在五角大楼眼里,Claude不是普通软件,而是作战体系的一部分。
它被认定为“最先进、最安全”的AI,这种评价不是客套,是实战验证的结果。
所以,他们既想把你踢出去,又怕你真走了——这种焦虑,催生了极端手段。
更让军方火大的是,别人都服软了,就Anthropic还在硬扛。
OpenAI、谷歌、马斯克的xAI,全都签了字,同意政府在任何“合法用途”下自由使用其模型。
Grok刚刚获批进入机密环境,连马斯克这种向来桀骜的人都点头了。
唯独Anthropic,至今没松口。
这不是不识抬举是什么?
可Anthropic为什么死扛?
因为从根子上,这家公司就和别人不一样。
阿莫迪2021年离开OpenAI创立Anthropic时,打的就是“负责任AI”的旗号。
他不信那种“先跑起来再说”的硅谷逻辑,坚持认为前沿AI必须自带刹车。
他在声明里写得很清楚:有两类用途,我们从来没放进合同,现在也不会放进去——一是对美国公民的大规模监控,二是完全不需要人类干预的自主武器系统。
这不是讨价还价,是底线。
他还从技术角度解释:现在的AI,根本不够可靠。
让它控制武器?等于把士兵和平民的性命交给一个可能突然胡言乱语的程序。
Anthropic不想提供一种会让作战人员和civilians(平民)陷入危险的产品。
这话听着理想主义,但细想很实在。
AI幻觉不是bug,是特性。
今天它能把委内瑞拉地图标错成哥伦比亚,明天就可能把学校识别成导弹基地。
这种东西,真敢放手让它开火?
五角大楼当然不认这个理。
发言人帕内尔回应说:国防部无意搞大规模监控(因为违法),也不打算开发完全自主的武器。
听起来很讲道理,对吧?
但他马上补一句:但必须允许AI用于“所有合法用途”。
这句话才是关键。
什么叫“所有合法用途”?
谁来定义“合法”?
在紧急状态下,总统一句话就能宣布某项行动“合法”。
到时候,Anthropic设的护栏,会不会变成纸糊的?
更深层的焦虑,其实来自大国竞争。
有评论指出,赫格塞思这么强硬,是因为特朗普政府急于在AI军事化上压过中国。
他们怕慢一步,就被对手甩开。
所以宁可撕破脸,也要确保美军能无阻碍地调用最先进AI。
在这种思维下,企业的伦理顾虑,不过是拖后腿的绊脚石。
但这里有个悖论:如果为了快而放弃安全,最后可能反而更慢。
AI一旦出错,造成的误判可能是战略级的。
2023年就有模拟推演显示,高度自动化的指挥系统在遭遇对抗性攻击时,可能在几分钟内触发不可逆的升级。
Anthropic的谨慎,恰恰是为了避免这种灾难。
可五角大楼似乎觉得,只要别人还没出事,我们就得冲在最前头。
这场对峙,表面看是合同纠纷,实质是两种未来观的碰撞。
一边相信技术必须服从国家意志,速度压倒一切;另一边坚持,再强大的工具也得有人类的缰绳。
美国过去几十年的科技霸权,靠的不只是创新速度,还有制度信任——企业敢投入,因为知道规则清晰;政府敢采购,因为知道技术可控。
现在五角大楼的做法,正在亲手砸碎这种信任。
想想看,如果今天能对Anthropic动用《国防生产法》,明天是不是就能对芯片厂、云服务商、甚至大学实验室下手?
一旦开了这个口子,“国家安全”就成了万能钥匙,可以打开任何一扇门,拿走任何一件东西。
企业还敢研发真正前沿的技术吗?
谁愿意花十年做出一个可能被政府一句话就收走的产品?
Anthropic的抵抗,其实是在替整个科技行业守住一道防线。
它不是反对军方用AI,而是反对无条件开放。
它要求的,不过是在合同里明确排除两类高危场景。
这算过分吗?
OpenAI和谷歌虽然签了字,但他们的模型还没进机密系统,风险感知完全不同。
Claude已经在战场上用了,责任也重得多。
这时候还要求它放弃所有限制,等于逼它赌国运。
五角大楼的焦虑可以理解,但手段太糙。
真正的技术领先,不该靠胁迫维持。
当年曼哈顿计划能成功,不是因为军方强抢科学家,而是顶尖人才自愿集结,相信目标正义、过程可控。
今天如果只靠威胁和标签逼企业就范,短期或许能拿到代码,长期却会吓跑人心。
AI竞赛比的不是谁先部署,而是谁的系统更可靠、更可持续。
一个靠强制征用堆起来的AI帝国,地基是沙子做的。
再说回那个“供应链风险”的标签。
给本土公司贴这种标签,等于承认美国自己的科技生态出了问题。
如果连Anthropic这种彻头彻尾的美国企业都被视为威胁,那五角大楼到底信谁?
难道以后所有AI合同都只能给政府全资控股的子公司?
那还谈什么创新?
硅谷的活力,从来就建立在公私协作的基础上。
现在一刀切,等于自断经脉。
有意思的是,这场风波里,没人质疑Claude的能力。
恰恰相反,正是因为太好用,才惹来这么多麻烦。
美军在委内瑞拉的行动依赖它,说明它确实解决了真实痛点。
可正因如此,才更该小心对待。
越是关键的工具,越需要明确边界。
医院里的手术刀,也得有使用规范,不能因为救命就随便挥舞。
阿莫迪的公开信,其实留了余地。
他没说“永不合作”,而是强调“现阶段不应纳入”两类场景。
这是一种动态评估的态度——等技术成熟了,规则也可以调整。
但五角大楼不要这种弹性,它要的是绝对控制。
这种思维,本质上还是工业时代的——把AI当成坦克或步枪,买了就能用。
可AI不是静态武器,它是活的系统,会学习、会演化、会犯错。
用管理F-35的方式管理Claude,注定会出问题。
特朗普政府推动AI军事化的急迫感,背后是对中国技术追赶的恐惧。
但恐惧不该成为粗暴行事的理由。
中国在AI领域确实在加速,可美国最大的优势从来不是速度,而是生态。
大学、企业、军方之间的良性循环,才是创新的源泉。
现在为了短期战术优势,破坏这个生态,等于杀鸡取卵。
Anthropic的坚持,看似固执,实则是对美国科技传统的一种守护。
它提醒人们:技术再强大,也不能脱离人的判断。
完全自主的武器,不只是技术问题,更是道德悬崖。
一旦跨过去,就再也回不了头。
五角大楼说“不打算开发”,可如果连模型访问权限都不受控,谁能保证某个战场指挥官不会在压力下绕过限制?
Anthropic要的,不过是一道保险栓。
这场拉锯战,短期内恐怕难有赢家。
五角大楼真把Anthropic踢出局,就得找替代方案,可目前根本没有同等水平的模型能立刻顶上。
强行征用又可能引发法律大战,甚至导致Claude团队集体退出维护——一个没人维护的AI,在战场上就是定时炸弹。
而Anthropic如果彻底失去军方订单,商业前景也会受挫。
两边都在赌对方先眨眼。
但历史经验告诉我们,当国家权力和技术伦理发生冲突时,往往是后者先退让。
可这次不一样。
AI的特殊性在于,它的错误成本太高。
一次误判,可能就是一场战争。
Anthropic的红线,不是矫情,是底线。
五角大楼如果真在乎国家安全,就该坐下来谈规则,而不是挥舞大棒。
说到底,美国正在面对一个它从未准备好回答的问题:当最强大的工具掌握在私营公司手中,国家该如何与之共处?
是把它国有化,还是建立新的契约?
Anthropic事件,就是这个问题的第一次大考。
可惜,五角大楼选择了最原始的方式——威胁。
这种方式或许能赢下一场战役,但会输掉整场战争。
技术从来不只是技术。
它嵌在制度里,长在信任中。
没有信任的强制合作,就像没有地基的房子,风一吹就倒。
Claude今天能在机密系统运行,是因为Anthropic花了几年时间证明它的可靠性。
这种信任,不是靠《国防生产法》能夺走的。
五角大楼如果真动用那部法律,得到的可能只是一个空壳——代码还在,灵魂已死。
Anthropic的抵抗,不是反美,恰恰是最美国的举动:在权力面前,坚持原则。
这种精神,曾经造就了硅谷的黄金时代。
现在,它正面临前所未有的考验。
五角大楼以为自己在争取控制权,其实是在测试整个创新体系的韧性。
如果连一家本土AI公司都要被当作潜在敌人对待,那未来的创业者还会相信这个系统吗?
答案可能很快揭晓。
但无论结果如何,这件事已经留下了一个深刻的印记:当国家开始用对待敌人的手段对待自己的科技先锋,它的衰落,或许就从那一刻开始了。
美国政府最终会发现,真正的国家安全,不在于能否强制征用一个模型,而在于是否还能吸引最聪明的人心甘情愿地为它创造下一个模型。
Anthropic没退。





京公网安备 11011402013531号