2025年,AI行业正经历一场前所未有的“算力焦虑”挑战。全球范围内,SSD、CPU等核心硬件价格持续攀升,供应链不稳定、交付周期延长、能源成本上升等问题叠加,使得AI基础设施的建设与运营面临巨大压力。以美国亚马逊零售渠道为例,2025年9月至2026年1月,SSD均价涨幅达74%,部分型号价格翻倍,高端8TB SSD价格甚至突破2500美元。企业级市场同样不容乐观,第四季度企业级SSD价格上涨12%-15%,HDD合约价上涨4%,而服务器级CPU预计在2026年第一季度上调10%-15%。
硬件成本的激增并未带来效率的同步提升。相反,许多AI项目陷入“越买越贵、越用越低效”的怪圈。大模型训练与推理对GPU集群的依赖日益加深,但数据传输瓶颈导致算力资源频繁闲置。例如,某些任务中,GPU因等待数据包而处于低负载状态,训练任务间歇性停顿,算力效率大幅下降。与此同时,AI系统产生的数据呈现明显的分层特征,但温冷数据与热数据混存于高性能设备的现象普遍存在,导致存储空间浪费、电力消耗增加。更严峻的是,存储系统割裂导致数据孤岛问题突出,跨系统流动困难,进一步加剧了资源错配与系统内耗。
面对这一困境,行业开始重新审视存储系统的角色定位。传统观念中,存储仅是“数据仓库”,负责数据的归档与备份;但在AI时代,存储正从边缘投资转向智能中枢,成为决定算力效率、平台可用性与数据价值的关键环节。曙光存储等厂商提出“先进存力”概念,强调存储系统需具备效能优化、智能调度与生态协同三大能力,以应对成本上升与需求激增的双重挑战。
效能优化是“先进存力”的核心目标之一。曙光推出的F9000全闪系统搭载“超级隧道”技术,通过压缩数据通路、加速吞吐,使大模型训练效率提升4倍,显著减少GPU闲置时间。其S6000高密液冷方案则在4U空间内实现1.44PB容量,构建成本降低20%以上,同时兼顾扩展性与能耗效率。系统级RDMA、零拷贝与智能卸载技术将部分CPU任务转移至存储系统,释放30%以上计算资源,降低传统架构的惯性成本。
智能调度则通过软件算法对冲硬件价格波动。曙光的StorInsight技术集成智能压缩、纠删码与去重功能,将存储利用率提升至91%。其热、温、冷数据自动识别与迁移机制可动态调节资源分布、系统能耗与交付路径,使资源利用率提升35%、能效比提升45%,总拥有成本(TCO)进一步压缩。这一机制的本质是通过软件重构存储分层、资源调度与能耗管理三大控制环,将存储从静态资产转变为智能决策单元。
生态协同是“先进存力”的另一关键维度。曙光通过存算网一体架构打通数据清洗、训练、推理与部署的全流程,支持数据在系统内自由流动,减少重复加载与迁移。其开放接口可无缝适配DeepSeek等主流AI框架,并支持异构设备多源接入,避免“为数据换平台”的困境。曙光还与产业伙伴共建数据可信流动机制,在跨区域部署中实现多地数据治理合规协同,为数据从存储到使用建立可信轨道。
AI存储的变革正深刻影响行业格局。从宏观层面看,全球AI计算与存储硬件投入持续增长,2025年二季度达820亿美元,同比增长166%,预计到2029年将突破7580亿美元。其中,AI存储的价值日益凸显——当模型、任务与租户数量激增时,存储系统需承担缓存调度、能耗管理、任务优先级与服务质量(QoS)等额外职责,成为智算中心建设的核心预算项。从微观层面看,企业数智化转型对存储系统提出更高要求,需具备AI原生架构适配、数据跨域协同与智能调度治理能力。曙光等厂商正试图将“智能分层+跨系统协同”标准化,推动企业数据资产从“静止贬值”转向“流动增值”。
在这场由硬件涨价引发的行业变革中,具备系统性能力的厂商正脱颖而出。他们不再局限于单一技术突破,而是从底层架构、上层调度与生态协同三个维度重构存储系统,使其成为AI时代的“数据发动机”。这一转变不仅关乎成本控制,更决定了企业能否在算力焦虑中保持竞争力,以及AI产业能否从“堆规模”迈向“拼结构”的新阶段。











