近日,市场消息显示,SK海力士已正式启动针对英伟达Vera Rubin平台设计的SOCAMM2内存模块大规模量产。这款新型内存模块通过架构创新,实现了带宽性能的突破性提升,较前代产品带宽增加超200%,同时能耗效率优化幅度达75%,为下一代人工智能服务器设计提供了关键硬件支持。
作为连接高带宽内存(HBM)与大容量DDR5系统内存的中间层解决方案,SOCAMM2在AI计算架构中承担着特殊使命。其设计定位在于填补HBM与DDR5之间的性能鸿沟,通过动态调节数据传输速率与存储容量,在保持低功耗的同时满足AI大模型训练对实时数据吞吐的严苛要求。这种分层存储策略有效解决了单纯依赖HBM带来的成本激增问题,同时避免了DDR5延迟过高对计算效率的制约。
技术分析显示,SOCAMM2采用三维堆叠封装技术,通过硅通孔(TSV)实现芯片间垂直互联,显著缩短了数据传输路径。配合改进的信号调理电路与纠错算法,该模块在保持128GB/s级带宽的同时,将工作电压降低至1.1V以下。这种能效比的提升对于需要部署数千个加速卡的超大规模数据中心而言,意味着每年可减少数百万千瓦时的电力消耗。
行业观察人士指出,随着生成式AI模型参数规模突破万亿级,传统内存架构已难以满足指数级增长的数据处理需求。SK海力士此次推出的中间层内存方案,标志着AI硬件生态向模块化、专业化方向演进。英伟达Vera Rubin平台作为下一代AI计算核心,其内存子系统的升级将直接影响大模型训练的迭代速度,相关技术突破可能重塑全球AI基础设施竞争格局。











