当前位置: 首页 » 资讯 » 科技头条 » 正文

马斯克结盟Anthropic,标志着大模型战争正式进入“重工业时代”

IP属地 中国·北京 编辑:孙明 硅基星芒 时间:2026-05-08 22:58:01

周四凌晨,Anthropic宣布与SpaceX达成算力合作,获得了超过300兆瓦算力。但这件事的底层逻辑,绝大多数人都没看懂。

开发者首先注意到的,是Claude限额翻倍、高峰期限制取消。这当然值得高兴。但真正要紧的信息藏在另一条新闻里:xAI此前囤积的55万块GPU,利用率仅有11%。同一时间,彭博社披露SpaceX计划斥资最高1190亿美元,建设代号Terafab的2纳米芯片厂。紧接着,马斯克确认xAI将解散并入SpaceX,成立SpaceXAI。

三件事并行浮出水面,指向同一个方向。

过去两年,大模型的竞争看起来像一场算法天才的智力竞赛。参数规模、基准测试得分、多模态能力,每一条战线上都有新纪录被刷新。但进入2026年,底层逻辑已经变了。算力堆砌走到物理学和工程学极限之后,竞争开始从软件算法层加速下沉,变成一场关乎能源、硬件调度与底层半导体制造的重工业之战。

一言以蔽之,Anthropic联手SpaceX这件事标志着,大模型战争正式进入“重工业时代”。

所谓“AI重工业”,意味着竞争锚定在三个更坚硬的东西上:能源利用率、硬件调度效率、底层半导体制造能力。它们的共同特点是不受摩尔定律庇护,也无法靠融资和挖角快速解决。它们需要时间、土地、电力、水和数十年的工艺积累。

01

11%

要理解马斯克这一系列激进动作的根源,得从11%这个诡异的数字开始。

不论国内还是海外,每家AI企业都在持续抱怨算力不足。而坐拥Grok的xAI,竟有如此巨量的闲置算力。

过去一年,xAI在AI基础设施建设上速度近乎疯狂。部署在孟菲斯的Colossus超算集群,仅19天就完成首阶段投用,累计囤积约55万块英伟达H100和H200 GPU。放在全球算力储备榜单上,这是一个极具压迫感的体量。

然而,买到算力不等于拥有算力。

衡量AI算力效率的核心指标叫MFU,模型浮点运算利用率。xAI的MFU仅为11%。这意味着集群理论上能产生100份训练吞吐量,其中89份被白白浪费了。

这当然不是马斯克和他组建的高精尖团队的过错,而是整个AI基础设施领域面临的普遍性技术鸿沟:超大规模集群下的软件堆栈与网络通信瓶颈。GPU数量有限时,问题并不棘手。一旦达到十万甚至数十万级别,系统复杂度便开始指数级攀升。卡间数据同步、网络延迟、故障节点恢复、数据读写等待,每一环都吞噬时间。即便部署最顶级的InfiniBand网络也无济于事。

这也是国内月之暗面、DeepSeek,以及海外Google等AI企业多年来坚持在底层架构上持续投入的主要原因。缺乏深厚的底层架构优化能力,堆砌的硬件就只是一堆耗电的废铁。

对于重资产模式,低利用率意味着硬件回本年限被无限拉长,而技术淘汰年限在加速缩短。这是毁灭性的。数十万块顶级GPU,且不说高昂的采购折旧成本,单是液冷和电力系统的持续运转,就足以产生天文数字的账面损耗。

这种超大集群导致的“算力消化不良”,迫使马斯克必须在商业模式上快速做出调整。

02

变脸

面对如此庞大的闲置资产,将部分算力剥离、变现,自然成了最符合商业逻辑的止损方案。而这,也是Anthropic与SpaceXAI达成22万块GPU合作协议的根本背景。

一个颇为讽刺的事实是,联手双方此前的关系谈不上好。xAI平台上,马斯克上次提及Anthropic还是毫不留情的攻击。但在商业利益面前,双方瞬间握手言和。

对Anthropic而言,这是一场久旱逢甘霖的战略补给。此前因算力不足,它选择了给模型降智、限速,甚至取消了低价档位订阅。作为与OpenAI抗衡的全球第一梯队模型企业,Anthropic虽已拿到亚马逊和谷歌的资金与算力支持,但在追求更高阶模型的过程中,对独立、大规模的顶尖算力仍然极度渴求。

获取Colossus 1全部算力后,Anthropic的反应极其务实且迅速。Claude Code限额翻倍,高峰期限制取消,Opus模型API额度大幅提升。对B端和C端市场而言,算力直接转化为用户体验的提升,这就是从OpenAI手中抢份额的利器。

对马斯克来说,这笔交易同样精明。

通过将GPU集群租赁给Anthropic,SpaceXAI事实上扮演了类似AWS和微软Azure的底层云服务商角色。这一手不仅有效对冲了硬件贬值和闲置成本,还将前沿AI算力转变为一项能够产生稳定现金流的基础设施生意。在自家Grok团队的软件能力完成追赶之前,让顶尖硬件在别人手里满负荷运转,远比放在自己机房里闲置理智得多。

而马斯克心里更清楚的是,支持Anthropic,客观上对打了很久官司的老对手OpenAI形成了有力牵制。

03

上天

将xAI解散并入SpaceX,折射出马斯克认知体系的变化。

前沿AI的研发已经告别了过去那个纯粹的软件和算法命题,变成了一个庞大的系统工程命题。规模化法则仍在生效,全球大模型参数量向十万亿级别迈进,训练和推理所需算力呈几何级数增长。地球上最先进的科学要取得进展,代价就是对物理资源的极限挤压,电力、土地,甚至水。

目前,美国多家科技巨头都在为数据中心电力发愁。Anthropic在官方公告中甚至承诺会“覆盖因其数据中心导致的美国消费者电费上涨”。AI的能耗已经足以触及社会公共资源的敏感神经。

最早布局太空算力的SpaceXAI在公告中也直言不讳:训练和运行下一代系统所需的算力,正超出陆地电力、土地和冷却系统在有效时间内的承载能力。

将xAI并入SpaceX,底层逻辑就是要利用SpaceX在全球独一无二的工程整合能力与航天运输能力。太空拥有无尽的太阳能,真空环境结合背阴面的极低温度,又能直接解决地球上最棘手的数据中心散热问题。SpaceX星舰计划带来的低成本、高频次大质量入轨能力,便理所当然地成为实现这一构想的唯一现实依托。

解散独立的xAI,本质上不是收缩,而是将AI的底层基础设施与航天工程进行深度的物理与组织绑定。

04

闭环

借出算力解决眼下的财务压力,探索太空算力押注未来的物理空间,这还不是全部。

名为Terafab的晶圆厂项目,是马斯克试图在整个科技产业链上游完成的终极闭环。

全球AI企业为算力叫苦连天,核心原因在于整条产业链的产能被极少数企业卡住了脖子:英伟达掌握芯片设计与CUDA生态,台积电垄断先进制程的制造产能。而马斯克在半导体领域的需求几乎是全方位的。除了AI模型训练,特斯拉的自动驾驶、Optimus人形机器人以及SpaceX的航天器,都需要海量定制化的先进制程芯片。依赖外部供应商,等同于必须忍受漫长的交付周期和高昂的溢价。

Terafab初期计划投入550亿美元,如今最高达到1190亿美元,目标直指2纳米工艺,规划每年对应1太瓦电力的算力产能。马斯克给英伟达发出信号的同时,也直接向台积电的代工霸权发起了正面挑战。

不过,业界普遍持怀疑态度。再有钱也只能买到ASML的光刻机和应用材料公司的设备,而这只是第一步。良率爬坡和工艺磨合,往往需要数十年的积累。但无论如何,这种“第一性原理”驱动的垂直整合尝试,将AI巨头们试图挣脱现有半导体供应链束缚的强烈意志暴露无遗。

英伟达CEO黄仁勋在祝贺SpaceX与Anthropic合作时说了一句:“AI的未来在英伟达。”

马斯克的一系列操作却给出了另一种剧本:只有同时掌握高效的硬件调度、获取廉价而可持续的能源、在底层芯片制造上实现自主可控,才能主导AGI的星辰大海。

算力已经成为新时代的石油。单纯的算力囤积者如果缺乏强大的软件消化能力,最终只会被高昂的成本反噬。AI模型的持续进化,正在倒逼基础设施突破地球的资源限制,重塑全球半导体制造的格局。算法固然重要,但在物理定律和商业规律面前,坚实的重工业才是支撑AI发展的基石。

标签: 算力 马斯克 底层 模型 硬件 全球 能力 半导体 重工业 双方 标志 软件 调度 基础设施 太空 集群 物理 电力 产生 闲置 工艺 时代 战争 利用率 工程 结盟 企业 航天 能源 问题 战略

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新