大模型产业正悄然经历一场深刻变革,其重心正从算力竞赛转向存力优化。过去两年,行业焦点集中在堆砌GPU与扩大模型参数规模,英伟达一度成为产业讨论的核心。然而,随着AI应用向规模化推理、企业级落地及多模态方向演进,存储系统的重要性日益凸显,成为制约技术落地的关键因素。
民生证券最新研报显示,受AI需求驱动,2025年第四季度存储价格预计持续上涨。这一趋势源于AI应用对存储性能的严苛要求,以及服务器端对高阶DRAM和HBM的需求激增,导致消费级DRAM产能被挤压。在近日举办的“先进存力AI推理工作研讨会”上,专家达成共识:推理阶段的性能瓶颈、成本压力及用户体验优化,正从算力侧向存储侧转移,存力已成为推动AI落地的核心驱动力之一。
推理效率正重塑产业竞争格局。过去两年,行业以“参数规模”为竞赛指标,而2025年起,竞争焦点转向“推理效率”。Token调用量的爆发式增长使推理成本攀升,企业开始意识到,模型训练可集中于少数超级节点,但推理需覆盖千行百业,直接决定用户体验、服务成本及业务可持续性。这标志着“Token经济”时代的到来。
推理负载的变革集中体现在三大领域:长上下文任务使KVCache从临时存储变为性能核心,其容量随输入长度指数级增长;多模态数据(图像、音频、视频)的涌入,使传统I/O模式难以满足实时推理需求;训推一体化趋势下,模型迭代需推理系统在高负载下保持低延迟与稳定性。这些变化导致GPU常因“等数据”而闲置,算力利用率下降,直接推高推理成本。数据显示,推理侧算力利用率每提升20%,整体成本可下降15%—18%,远超单纯增加GPU投入的效益。
存力瓶颈的凸显,使“喂饱GPU”的能力成为稀缺资源。传统存储仅承担数据存放功能,而在大模型推理场景中,其角色已升级为“计算助推器”:如何加速数据传输、避免KVCache阻塞、实现多模态数据高效编织、在训推混合负载下保持稳定,均成为决定推理吞吐与延迟的关键。行业普遍采用分层缓存与动态调度技术,通过本地极速层、共享扩展层与冷备层的异构介质,按数据访问频率自动分配存储位置,平衡容量、响应速度与成本。
北京硅基流动科技有限公司从框架层切入推理效率优化。其构建的AI infra工具链适配100余款开源大模型,并通过公有云平台提供服务。解决方案中,UCM技术卸载KVCache以释放显存,智能网关优化调度与弹性扩缩容应对长上下文挑战,基于存储的KVCache方案使系统吞吐大幅提升。公司解决方案总监唐安波强调,框架层优化与存储技术结合,是提升算力利用率的关键路径。
产业共识正围绕存力重构形成四大方向:其一,GPU资源将不再稀缺,“喂饱GPU”的能力成为竞争焦点。存力池化、CXL布局、多级缓存及KVCache外存化将成为标配;其二,多模态数据爆炸推动存储从“存放”转向“管理”,数据分类、治理与调度能力将定义推理体验;其三,训推一体化要求存储系统具备实时性,IO延迟波动将直接影响业务表现;其四,CXL架构将打破内存与存储的边界,构建算力存力一体化新范式。AI竞争正从模型层面深入至基础设施重构,存力优化已成为决定技术商业化成败的核心战场。


















