当前位置: 首页 » 资讯 » 科技头条 » 正文

环球问策:当AI从“烧钱”走向“算账” 超节点能否实现普惠破局?

IP属地 中国·北京 环球网资讯 时间:2026-03-28 14:22:47

环球网

当AI技术从技术验证走向实际应用,算力供给的结构性调整正成为业界关注的焦点。

3月26日,中关村论坛年会现场,中科曙光发布世界首个无线缆箱式超节点——scaleX40。这款产品集成40张GPU,总算力超过28PFLOPS(FP8精度)。中科曙光高级副总裁李斌在发布会上表示,推出这一产品的初衷,是为了“补齐市场上的产品空缺”——在数百卡级的顶级超节点与当前主流的8卡服务器之间,寻找一个兼具性能与成本优势的“最佳收益点”。


“原来的超节点太过高配,而主力用于推理服务的8卡形态又已落伍。”李斌在接受记者采访时说。在他看来,随着以OpenClaw为代表的智能体技术快速兴起,AI算力使用模式正从以训练为主转向以推理和服务为主,算力基础设施的角色也相应地从“算力工厂”转变为“Token工厂”。在这一背景下,如何让超节点从“少数人的能力”变成“多数人的标配”,成为行业需要回答的问题。

算力需求的结构性变化

过去几年,AI算力的叙事主线是“越大越好”——更大的集群、更多的卡数、更高的参数规模。从千卡到万卡,再到十万卡集群,头部科技公司竞相追逐算力规模的极限。

但这一逻辑正在被市场需求的变化所修正。

“从当前市场需求来看,AI算力结构正在发生分层变化。”中科曙光高级副总裁李斌在发布会上表示。根据行业机构预测,全球AI基础设施投入仍将保持较快增长,但新增需求正逐步从超大规模集群,转向企业级和行业应用场景。

这意味着,算力配置的重点不再单纯追求规模上限,而是更加关注性能、成本与灵活性的平衡。

智源研究院AI框架研发部门负责人敖玉龙在圆桌对话中道出了科研机构面临的现实困境:“算法同学最理想的情况是,用一台机器就像用单机一样,不需要了解复杂的并行策略和优化策略。但现实是,大模型的规模决定了不可避免地需要一个复杂的系统。”

超节点的技术逻辑

也是在这一背景下,中科曙光选择了40卡这一规模作为切入点。

“业内普遍共识是:几十卡规模已足够满足大多数行业场景模型训练、推理及开发测试的算力需求,这也是兼顾效率与投入的最大公约数区间。”李斌解释,相比数百卡级的顶级超节点,40卡既具备支撑大模型训练和推理的能力,又不会带来过重的投入压力。

从技术路径来看,scaleX40采用了与顶级超节点不同的设计思路。它通过无线缆正交架构,将计算与交换节点实现直接对插,减少了光纤与铜缆的使用,同时采用标准19英寸箱式设计,可直接适配现有数据中心环境。

这种设计带来的直接影响是部署门槛的大幅降低。“原来的超节点基本上以柜为单位,而且是定制化系统,对整个机房的供电、环境要求非常高。”李斌在采访中表示,而scaleX40作为箱式系统,可以放在标准机柜里,接标准机房的供电和冷却设备。

在性能层面,scaleX40的通信效率提供了具体的数据支撑。与传统的5台8卡机相比,访存带宽超过80TB/s,提升约10到20倍,延迟降低接近一个数量级。更重要的是,40卡之间采用的是地址可直接访问的内存语义,而非传统网络传输模式,这在编程和使用上带来了实质性便利。

成本与收益的平衡点

对于大多数企业而言,算力决策的核心始终是投入产出比。

中科曙光方面给出的数据是:与传统5台8卡机相比,scaleX40的成本基本相当;但训练性能可提升120%,推理性能最高提升至330%。与组合柜式超节点相比,部署和采购门槛则有数量级的下降。

“普惠算力最直接的体现是,花同样的钱,得到4到5倍的收益。”李斌如此说道。

这种性价比优势的背后,是全栈协同优化的结果。从存储到网络,从管理平台到软件栈,scaleX40并非一个孤立的硬件产品。发布现场,中科曙光展示了与之配套的ParaStor分布式存储系统、ScaleFabric高速网络产品以及SothisAI开发管理平台。

“scaleX40不仅仅是一台机器,更是一套开箱即用的系统产品。”曙光信息产业(北京)有限公司副总裁李柳强调。系统出厂前已针对推理、训练等场景完成常用算子及软硬件的深度优化,并内置800多个完成适配的常用大模型。

从“技术竞赛”到“产业融合”

值得关注的是,scaleX40的发布时机恰逢AI应用形态的转折点。

年初以来,以OpenClaw为代表的智能体技术快速走热,推动AI从“对话”走向“行动”。这一变化对算力供给提出了新的要求——不再只是单次响应的速度,而是并发能力、稳定性和单位Token产出成本的综合考量。

“Token需要算力来做产出,但现在的评价维度和指标变得更多了。”李斌分析,对普通用户来说是响应速度,对算力系统运营者来说是并发支撑能力,而scaleX40正是希望在多个方面同时带来提升。

这种变化也反映在行业对算力形态的预期上。中国电信股份有限公司研究院云网融合技术研究所智算网络技术负责人王子潇提出,未来3—5年算力与应用的协同优化将越来越紧密,模型结构逐步收敛后,针对特定算子的ASIC芯片会快速发展。而在互连层面,Scale-up和Scale-out协议的统一可能带来节点规模扩张的更大灵活性。

算力供给的未来路径

从更宏观的视角看,中国算力产业正在经历的系统性转变。“现在国家对于算力中心建设总体的指导思想是让这些建设更有序、更集约、更绿色。”李斌表示,在去年发布面向顶级训练的scaleX640之后,如今推出面向普惠应用的scaleX40,形成从尖端到普惠的产品矩阵,这是算力分层供给逻辑的自然延伸。

在自主创新层面,中科曙光强调系统级协同优化的路径。“我们在整个国内计算AI生态里,跟上下游从芯片到系统软件,再到上层模型和应用,在做垂直的跨层协同。”李斌说道,通过这种协同去发挥更好的效率,体现的是产业链、生态链协同创新的方向。

当前,AI正加速进入千行百业。在这个过程中,算力能否以更低的门槛、更高的效率、更可控的成本实现供给,将直接影响AI应用的广度和深度。正如李斌所言:“我们希望让这个产品成为当前支撑模型推理服务最重要的生产力工具。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。