智通财经APP获悉,东方证券发布研报称,CXL内存池化方案能显著优化存储系统效率,未来AI算力设施中的内存硬件构成有望重塑。该行认为,目前CXL内存池化相关软硬件已逐步完善,头部大厂正加速推进布局。各大厂商持续推动以内存池化方案优化AI推理效能,CXL内存池化方案有望随着AI推理需求提升持续打开空间,产业链有望深度受益。CXL方案优化AI存储架构,头部厂商有望加速应用。
东方证券主要观点如下:
CXL方案可优化存储系统效率,未来AI存储架构有望重塑
部分投资者仍然低估了AI推理对内存容量扩展及存储架构优化的需求。该行认为,CXL内存池化方案能显著优化存储系统效率,未来AI算力设施中的内存硬件构成有望重塑。CXL(Compute Express Link)内存池化方案支持跨CPU、GPU及其他计算加速器的内存资源进行统一寻址、统一调度与透明访问,实现内存资源的整合与统一调度,从而支撑更大规模、更高并发的大模型训练与推理任务。从容量需求来看,AI推理过程中上下文缓存、模型权重等数据存储需求不断提升,而当前服务器内存提升受到插槽数量与单根内存条的容量制约。此外,当前存储架构存在调度低效等问题,模型参数和激活值需要频繁从HBM迁移到DRAM再到SSD,由于带宽差异显著且缺乏统一内存语义的底层直连协议,容易导致延迟放大、链路带宽浪费以及吞吐率下降;不同任务对计算资源与内存资源的侧重差异大,现有静态分配资源的方案也可能会导致算力浪费或内存瓶颈问题。针对现有存储架构的问题,CXL内存池化方案有望为AI算力设施拓展内存空间并提供更灵活的资源分配方案,从而提升Al模型训练和推理能力;同时CXL技术通过优化内存配置,有望显著降低数据中心系统总拥有成本(TCO)。
CXL方案相关软硬件逐步完善,头部厂商推进应用
部分投资者认为内存池化方案成熟度有限。该行认为,目前CXL内存池化相关软硬件已逐步完善,头部大厂正加速推进布局。在互联协议方面,CXL 4.0规范在25年11月发布,数据速率达到了128 GT/s,较CXL 3.0翻倍。英伟达未来有望持续推动CXL技术生态布局,于2025年9月收购Enfabrica的核心团队和技术授权布局相关方案;根据英伟达官网信息,英伟达Vera CPU支持CXL协议。国内服务器厂商已推出CXL内存池化相关方案,2025年阿里云于云栖大会上宣布推出全球首款基于CXL 2.0 Switch技术的PolarDB数据库专用服务器;浪潮信息于2025年12月推出元脑服务器CXL内存扩展方案,基于元脑服务器NF5280G7,在24条本地DRAM内存的基本配置下内置CXL内存扩展卡。随着相关软硬件逐步完善及头部厂商推进应用,CXL技术渗透率有望快速提升。根据Techinsight的预测,CXL在服务器DRAM中的总份额将从2024年的近乎为零,快速增长至2030年的约15%。支持CXL功能有望逐步成为服务器标配,产业生态有望加速成熟。
CXL方案持续创新,进一步适配AI推理需求
各大厂商正在持续推进内存池化方案创新,以适配AI推理需求。2026年3月,浪潮元脑服务器操作系统KOS基于CXL内存池化技术,推出“存传一体”的KVCache管理系统MantaKV,将P节点产生的海量KVCache集中存储在CXL池化共享内存中,既直接供D节点解码使用(无需再次传输),又自然成为全局可用的持久缓存(无需卸载至P节点本地SSD),将两次独立搬运合并为单次写入,以解决传输冗余问题,提升模型推理效率。2026年3月,北京大学联合阿里云等首次提出使用CXL内存池来存储Engram,将基于CXL的Engram内存池集成到SGLang框架中,实现了接近本地DRAM的端到端性能,为集成Engram的大型语言模型提供了一种可扩展且具有成本效益的存储解决方案。该行认为,各大厂商持续推动以内存池化方案优化AI推理效能,CXL内存池化方案有望随着AI推理需求提升持续打开空间,产业链有望深度受益。
风险提示
AI落地不及预期,技术迭代速度不及预期,国产化进展不及预期。





京公网安备 11011402013531号