ITBear旗下自媒体矩阵:

东方证券:CXL内存池化方案赋能AI存储 软硬件完善下头部厂商加速布局

   时间:2026-03-18 10:43:40 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

东方证券最新发布的行业研究报告指出,CXL内存池化技术正在重塑人工智能算力设施的存储架构,随着AI推理需求爆发式增长,这项技术有望推动产业链进入新的发展阶段。该机构分析认为,头部科技企业正加速布局CXL解决方案,相关软硬件生态已进入成熟期,预计到2030年该技术在服务器内存市场的渗透率将突破15%。

在存储效率优化方面,CXL技术展现出显著优势。传统架构下,AI训练和推理过程中模型参数需要在HBM、DRAM和SSD之间频繁迁移,由于不同存储介质带宽差异巨大且缺乏统一协议,导致系统延迟增加30%以上,带宽利用率下降约40%。CXL内存池化方案通过跨计算单元的统一内存寻址,实现了CPU、GPU等加速器的内存资源池化,使大模型推理任务可调用超过现有服务器内存容量3倍的共享内存空间。这种架构革新特别适用于需要处理超长上下文窗口的推理场景,有效解决了内存容量受限和资源静态分配导致的算力浪费问题。

技术标准化进程正在加速推进。2025年11月发布的CXL 4.0规范将数据传输速率提升至128GT/s,较前代实现翻倍增长。头部企业布局方面,英伟达通过收购Enfabrica核心团队获取关键技术授权,其Vera系列CPU已全面支持CXL协议。国内厂商同样动作频频,阿里云在2025年云栖大会上推出全球首款基于CXL 2.0 Switch的数据库专用服务器,浪潮信息则于同年12月发布元脑服务器内存扩展方案,通过内置CXL扩展卡实现24条本地DRAM与池化内存的无缝协同。

应用创新层面,厂商正针对AI推理特性开发定制化解决方案。2026年3月,浪潮信息发布的KOS操作系统搭载"存传一体"KVCache管理系统,通过CXL池化内存集中存储解码节点产生的中间数据,使数据搬运次数减少50%,推理吞吐量提升35%。同期,北京大学联合阿里云等机构提出的Engram内存池方案,将大型语言模型的持久化存储成本降低60%,同时保持与本地DRAM相当的访问延迟。这些创新表明,CXL技术正在从概念验证阶段转向规模化商用。

市场研究机构Techinsight预测,随着支持CXL功能的服务器出货量快速增长,2024-2030年间相关硬件市场规模年复合增长率将达89%。产业链上游的CXL控制器芯片、内存扩展模块等细分领域已吸引众多厂商布局,中游的系统集成商和云服务提供商正在构建基于CXL的存储即服务新模式。不过报告也提示,技术迭代速度、AI应用落地进度以及国产芯片替代进程等不确定因素,可能影响产业生态的成熟节奏。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version