在人工智能技术快速迭代的背景下,内存与存储行业正经历前所未有的结构性变革。美光科技数据中心业务部门高级副总裁杰里米·韦纳在近期播客访谈中指出,AI推理环节对内存的依赖程度已远超预期,成为突破计算瓶颈的核心要素。这种需求增长呈现出指数级特征,正在重塑整个存储产业链的技术路线。
传统计算架构中,内存主要作为临时数据存储介质存在。但在AI推理场景下,内存承担着持续记录历史状态的关键职能。韦纳解释称,当模型进行解码生成时,需要反复调用此前计算形成的KV缓存数据。若内存容量不足导致缓存丢失,系统将被迫重新计算,使算力需求呈几何级数增长。这种"内存墙"效应直接制约着GPU的利用率,理论上充足内存可将有效算力提升至平方倍数。
推动内存需求激增的三大要素正在形成合力:模型上下文窗口以每年30倍速度扩展,参数量持续突破新量级,同时在线用户数量呈现爆发式增长。为应对这种挑战,美光构建了从高带宽内存到海量存储的完整技术体系。其中HBM4产品通过带宽翻倍实现数据传输效率质的飞跃,245TB固态硬盘则通过集成化设计将存储密度提升至新高度。
新型存储解决方案展现出显著的系统优势。以245TB SSD为例,其体积仅比扑克牌略大,却能替代传统架构中数十块30TB硬盘。这种密度提升不仅减少80%以上的物理空间占用,更通过降低配套设备需求使整体功耗下降。在电力供应和机房面积成为关键约束的当下,这种技术突破具有重要战略价值。
全球存储产业正面临前所未有的产能压力。美光同步推进的五座晶圆厂建设项目,涵盖爱达荷州60万平方英尺超净间、纽约州新建基地、弗吉尼亚州扩建工程、新加坡南部晶圆厂以及日本DRAM产线升级。即便如此,韦纳坦言当前洁净室空间供给仍严重滞后于需求增长,整个行业都处于满负荷运转状态。
市场对AI投资可持续性的质疑,在韦纳看来存在认知偏差。他指出云服务商资本开支增长背后,是尚未完全释放的变革潜力。当前AI应用仍处于推理时代初期,智能体AI和物理AI等前沿领域尚未大规模商用。这种技术渗透的不均衡性,导致行业内外对发展趋势的判断存在显著差异。
存储技术创新正在突破传统性能边界。通过构建多层级存储架构,美光实现了从HBM到数据湖的完整覆盖:紧邻GPU的HBM提供10-100GB高速缓存,主内存扩展4-20倍容量,扩展内存通过光纤连接独立模块,SSD阵列承担KV缓存存储,最终由EB级数据湖构成底层支撑。这种分层设计有效平衡了速度、容量与成本的关系。
在技术路线选择上,美光采取双轨并进策略。HBM4研发聚焦带宽提升,通过优化内存接口设计使数据传输速率突破性增长;大容量SSD开发则侧重系统集成创新,将控制器、缓存与存储介质高度集成,在保持性能的同时实现体积和功耗的双重优化。这种差异化技术布局,使其能够覆盖从训练到推理的全场景需求。











