当前位置: 首页 » 资讯 » 科技头条 » 正文

推理新范式:动态效能算法让算力资源实现最大化

IP属地 中国·北京 智东西 时间:2025-11-12 20:12:44


智东西
作者 陈骏达
编辑 漠影

过去两年,全行业都在为大模型训练疯狂堆GPU、建算力中心。但当视角进入2025年,真正决定企业竞争力的主战场,已经迅速从训练转向推理

推理时代的算力不再是单一物理资源,而是一个跨地域、跨架构、跨属权的综合体系:一个企业的AI服务或许部署在自建IDC,同时又依赖外部云GPU;模型推理与模型训练并行存在;开发测试与生产流量共处一套资源;多业务、多租户同时争抢不同规格的GPU。这意味着算力要实时、动态、按业务优先级调度。而传统调度做不到。

传统算力调度平台诞生于传统云的集群运维背景,其核心目标是让硬件更易管理、更少出故障、更好利用。它们的能力止步于服务器视角:节点是否在线、显存是否足够、任务是否分配成功、权限是否隔离,在面向大模型的AI推理时代,却难以回答更重要的问题——推理延迟是否达标?模型吞吐是否最优?算力成本与业务收入是否动态平衡?在新范式转换下,系统需要重构。

这些问题在推理时代被迅速放大。过去算力用于训练,以“跑成”模型为目标;如今算力直接承载真实业务,算力调度被迫承担更多职责——必须从IT运维逻辑升级为AI业务逻辑。但挑战也随之而来:模型结构差异巨大、推理链路时延瓶颈、业务波峰波谷并发变化…每一次算力分配,都可能影响一笔业务成交、一位用户体验,甚至一个产品的增长曲线。

GPU不再是静态资源,而成为可运营、可定价、可持续经营的资产。

为了支撑这场范式转移,国内AI基座平台技术公司矩量无限重新定义了算力的基本单元,不再是“服务器/GPU卡”,而是围绕业务目标进行抽象的、可度量和可调度的算力单元,并基于此构建了完整的技术基座,形成了覆盖算力、模型、服务到商业回报的全链路平台矩阵。

在技术创新层面,矩量无限的开物算力调度系统深度融合了Kubernetes动态资源分配(DRA)技术 ,通过“异构GPU自适应调度与分配方法及系统”实现了突破性的算力管理能力:

技术特点:通过具备自学习能力的算力适配器,将异构国产GPU间的静态硬件资源单元抽象并转化为动态标准化的“算力能力单元”(CU)以实现精准调度和分配 。

产生效果:实现了基于任务实际需求的“目标导向”按需调度,极大地简化了用户对异构硬件结构和组成的关注,显著提高了集群资源利用率和运行稳定性。

达成形式:在各厂商设备信息上报的基础上,通过自学习算力适配器基于历史推理记录持续优化动态折算因子,并将统一的算力容量重发布为Kubernetes动态资源分配(DRA)ResourceSlice实现资源的精准绑定与分配 。

以上能力目前已在国产GPU卡上得到规模验证。矩量无限已在壁仞、天数、希姆等国产GPU的千卡级混合集群上完整跑通算力单元化与跨架构推理调度,同时相关平台已落地全国多个千卡智算中心,并服务于工信部工业互联网研究院、多家头部行业客户、高校科研机构等。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。