当前位置: 首页 » 资讯 » 科技头条 » 正文

全球AI争霸背后的电力较量:能源焦虑与联想(00992)液冷的爆发式增长

IP属地 中国·北京 智通财经 时间:2025-11-21 14:19:40

“我们有海量闲置的英伟达GPU,但他们只能躺在仓库,因为没有足够的电力去点亮他们。”

不久前在一档播客节目中,微软CEO纳德拉向市场揭示了这一残酷的真相:AI竞赛的瓶颈,已经从芯片供应转向了电力。

在过去的3个多月,英伟达完成了从4万亿美元到5万亿美元市值的跨越。万亿美元级别的估值增长,正是建立在持续不断、指数级增长的AI基础设施需求之上。市场预计,全球用于建设数据中心的投资未来将达到惊人的3万亿美元。

在持续数年的AI热潮中,人们热衷于讨论芯片制程的纳米之争,惊叹于大模型万亿级的参数规模,却鲜少关注支撑这一切的 “隐形基石”—— 电力。

如今,这场看似由算法与芯片主导的 AI 争霸赛,已经悄然演变为一场围绕电力资源、散热技术和能源战略的全球较量。从美国田纳西州正在建设的巨型数据中心,到中国雅砻江流域的水电算力枢纽,电力的供给能力与利用效率,正成为决定各国和巨头们AI竞争力的核心变量。

算力狂潮下的能源危机

AI为什么越来越费电?

过去,AI 的能源消耗主要集中在模型训练阶段 —— 一次GPT-3级别的模型训练,耗电量相当于300户家庭一年的总用电量。但随着大型语言模型(LLMs)的普及,能源消耗已从 “集中式训练” 扩散到 “分布式推理”:用户每一次提问、每一次图像生成,都是一次 “推理请求”。虽然单个LLM查询仅消耗0.3至1瓦时电能,但当每日请求量达到数百万次乃至数十亿次,其累积能耗便会呈指数级增长。数据显示,当前LLM推理工作负载的能耗已与模型训练持平,甚至超过后者;预计到2026年,全球AI推理需求将达到拍瓦时(1拍瓦时=10亿度电)级别,这一规模足以让许多国家的电网 “不堪重负”。

前谷歌首席执行官埃里克・施密特曾在公开场合发出警告:“AI 数据中心的电力需求规模,是我职业生涯中从未见过的。” 他的团队测算显示,到2030年,全球AI数据中心需要额外增加 96吉瓦的电力容量 —— 这一数值相当于整个瑞典的年发电总量,或100座美国标准核电站(单座容量1吉瓦)的总输出。

更令人震惊的是背后的电力成本,若一个数据中心的电力需求是1吉瓦(1,000兆瓦),假设其全年连续满负荷运行(约8,760小时),其年度耗电量将高达86.6亿度。这意味着,其每年的电力成本就可能高达7亿至8.76亿美元。未来,将出现大量更加大型的数据中心,其电力需求甚至达到10吉瓦,这个电力成本的增长相当恐怖。

可见对于科技企业而言,能源不仅是 “成本项”,更是 “生存项”。

高盛的研究报告指出,到2030年,数据中心的电力需求将增长165%,而AI推理的能源消耗在运营支出(OPEX)中的占比已超过20%。这意味着,能源效率每提升1%,就能为企业节省数亿美元的长期成本;反之,若电力供应中断或成本飙升,企业的营收预测将瞬间崩塌。如今,科技巨头们不得不扮演 “能源开发商” 的角色,将能源基础设施的投资(CAPEX)视为 AI 布局的 “前置条件”—— 没有电力,再先进的芯片和算法也只是 “废铁”。

中美AI能源策略背后的较量

作为全球算力投入最为疯狂的美国,此时却陷入了电力短缺的困境。目前美国一些老旧电力设施的改造请求需要等待7年以上。美国数据中心的扩建往往只需要几年时间,没有现有设备合同的天然气发电厂项目(美国数据中心的电力供应大多来自燃气发电)却至少要等到下一个十年才能投入使用。

面对电力的限制,全球顶级科技巨头不得不开始采取激进的策略——自建发电站,将能源供应掌握在自己手中。这种模式的核心,是建设 “数据中心+自备电站” 的一体化园区。

马斯克的 xAI 公司是这一战略的 “激进实践者”。其正在田纳西州孟菲斯建设的 “巨像2号”(Colossus 2)数据中心,计划部署55万至100万颗AI芯片,潜在投资规模高达数千亿美元。为支撑这座需要1吉瓦电力的 “算力巨兽”,xAI 在邻近的密西西比州建设了一座天然气发电厂,部署多台燃气轮机,实现现场发电、直接供电。这种 “就近发电” 模式,不仅避免了电网传输的损耗,还能根据算力需求灵活调整发电量,应对 “负荷抖动”。

更宏大的计划来自OpenAI、软银和甲骨文联合推进的 “星门”(Stargate)项目。三方计划在未来四年内投入5000亿美元,在全球建设多座巨型数据中心。甲骨文执行主席拉里・埃里森透露,该项目已在德克萨斯州启动10个数据中心的建设。

这种能源自主性,正在成为科技巨头,甚至是国家之间AI的核心竞争壁垒。

与美国企业通过 “自建发电站” 模式实现能源自主不同,我国依托政策引导和清洁能源优势,解决AI算力的能源需求。

今年7月,沉睡的雅鲁藏布江被爆破声震醒,总投资1.2万亿元的超级电力工程正式动工。这项装机容量6000万千瓦(相当于3个三峡电站)、年发电量3000亿度的世纪工程。这一规模可满足全国AI算力增长需求的75%以上,其电力成本低至0.1-0.3元/度,较美国同类算力成本降低60%。

不过,降低能耗显然是更加治本的策略。

液冷成为AI的“生命线”

能源危机的另一面,是散热危机。

相关数据显示,一座AI数据中心的电力消耗主要来自两个部分:一是计算,占数据中心电力需求的40%;二是实现稳定处理效率的冷却用电,同样占需求的40%左右。剩下的20%则来自其他相关的信息技术设备。

回述前文我们计算的数据,一个数据中心用于冷却的电费1年就需要2.8亿-3.5亿美元,开销惊人。

因此,散热能力已成为制约算力提升的 “物理瓶颈”—— 芯片产生的热量若无法及时排出,会导致性能下降、寿命缩短,甚至直接烧毁。这些芯片的热流密度通常超过 50W/cm²,局部热点甚至可达 150W/cm²—— 这相当于在指甲盖大小的面积上,每秒产生 50-150 焦耳的热量,足以在几分钟内烧开一杯水。若持续高温,导致芯片性能下降、可靠性降低,甚至发生故障。对于需要24小时不间断运行的 AI 数据中心而言,这种 “降频” 和故障风险,将直接影响服务稳定性和算力输出效率。

在如此极端的情况之下,用空气冷却AI芯片,就像用扇子给锅炉降温 —— 完全徒劳,根本无法满足AI芯片的需求。因此,更先进的散热技术,成为数据中心降低用电成本的刚需,迫使行业全面转向液体冷却技术。

液冷的核心优势在于 “高效导热”—— 液体的热容量是空气的4倍以上,能更快速地吸收热量。通过直接接触芯片或浸泡服务器,液冷技术可将热流密度的限制推高至 300W/cm² 以上,轻松应对当前及未来AI芯片的散热需求。液冷不是“可选方案”,而是部署最新AI芯片的“必需品”。


在全球范围内,科技巨头与专业厂商正加速布局液冷生态,英伟达、Meta、微软、谷歌等头部企业已在其AI基础设施中全面导入液冷。

因此,AI算力的爆发正在推动液冷市场进入快速增长期,形成了新的供应链投资热点。全球数据中心冷却市场预计将从2025年的187.8亿美元增长到2032年的424.8亿美元,复合年增长率(CAGR)为12.4% 。

国内液冷市场,也呈现出技术多元化与加速增长的势头。因此我们看到资本市场上,液冷服务器板块在过去一段时间里持续爆发,相关概念股持续上涨。

浪潮的冷板式液冷方案已应用于多个大型数据中心项目,特别是在金融、政务等对稳定性要求高的领域。华为在液冷技术方面主要采用冷板式方案,其"风液混合"散热技术已在多个AI数据中心项目中应用。联想作为全球第三大服务器厂商是最早布局液冷赛道的科技企业之一,技术路线覆盖冷板式、浸没式和喷淋式等。

联想:被低估的液冷玩家

作为深耕液冷领域近20年的“老兵”,联想在技术沉淀、规模化应用、生态构建等方面已形成全方位竞争优势,其在液冷赛道的真实价值正被市场逐步挖掘,长期成长逻辑清晰且坚实。

根据最新的25/26财年Q2财报显示,联想海神液冷技术营收同比增长154%(Q1同比增速为68%),增速迅猛。同时,本财季,联想ISG实现营收近300亿元人民币,同比增长24%,连续多季保持增长势头,并实现运营利润率环比提升1.2个百分点,体现出业务盈利能力正在企稳回升。与数据中心相关的AI基础设施业务保持快速增长,订单储备强劲,AI服务器收入实现高双位数增长。从68%到154%的增速跃升,不仅反映了液冷技术的市场价值正在被快速认可,也展示了联想在AI基础设施领域的战略前瞻性与执行力。

资料显示,通过采用100%全覆盖冷板式液冷设计,联想“海神”液冷解决方案系统功耗比传统风冷直降40%,PUE值可以降至1.1以下;今年新发布的"双循环"相变浸没制冷系统,则通过创新的外接单相换热器设计,实现相变腔体温度的精准控制和沸腾换热效能的显著提升,散热能力较传统方案翻倍提升,系统PUE可低至1.035。


截至2025年三季度,联想海神液冷系统全球部署量已超8万套,涵盖人工智能、超算、政务、金融、汽车等多个关键领域。从技术成熟度来看,联想液冷方案已经在国内外获得许多项目建设经验,在国内更是参与了《数据中心液冷系统冷却液体技术要求和测试方法》等行业标准的制定,技术话语权位居行业前列。

丰富的落地案例是联想液冷技术实力的最佳佐证,其方案已在多个重大项目中经受住严苛考验,展现出强大的场景适配能力。例如为支撑吉利星睿智算中心的运营,联想量身定制了问天海神液冷方案,该方案针对汽车研发过程中的海量数据处理需求,优化了散热路径设计,将全年平均PUE控制在1.1,一年可减少约3179吨碳排放。在海外市场,为包括巴塞罗那超算中心、韩国气象局、加拿大气象局等项目提供液冷解决方案。

高盛最新研究报告指出,全球服务器冷却市场正迎来结构性增长机遇。随着AI服务器出货量预期上调及液冷渗透率快速提升,预计2025-2027年全球服务器冷却总市场规模将实现111%/77%/26%的逐年增长,2027年将达到176亿美元。在这一市场中,联想凭借“技术领先+案例丰富+生态完善”的三重优势,有望持续提升市场份额。

全球AI的爆发已将能源基础设施转变为一个全新的、高增长的资产类别。同时,也迫使企业将风险管理内部化,液冷的高效性成为重要的解决路径。运营者通过液冷实现的极低PUE,不仅降低了运营成本,还减少了对电网的影响 。因此,这场全球AI竞争本质上将是电力和热管理技术的双重投资浪潮。而以联想为代表的液冷技术提供者,将成为未来重要的受益者。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。