据韩国科技媒体ETNEWS披露,英伟达正为其下一代Rubin AI GPU的HBM内存设计制定创新方案,拟通过"Dual Bin"分级策略平衡性能需求与供应链稳定性。该策略将HBM4内存划分为11.7Gbps和10Gbps两个速度等级,分别适配不同定位的产品线。
技术路线显示,旗舰级Rubin GPU将优先搭载11.7Gbps高速HBM4内存,而面向主流市场的衍生型号则采用10Gbps标准版本。这种差异化配置源于当前高速HBM4内存的良率挑战——受制于3D堆叠工艺的成熟度,高端内存的量产规模仍无法满足全线产品需求。通过分级供应策略,英伟达可在确保核心产品性能的同时,扩大整体出货规模。
行业分析师指出,显存带宽已成为制约AI芯片实际算力的关键因素。在训练千亿参数级大模型时,内存带宽不足会导致GPU计算单元闲置率高达30%以上。这解释了英伟达为何将高速HBM4作为战略重点,其11.7Gbps的传输速率较前代提升近40%,可显著缓解数据吞吐瓶颈。
供应链消息称,三星电子和SK海力士正在加速HBM4量产进程,但初期产能将集中保障英伟达核心产品线。这种分级策略不仅优化了资源分配,也为内存厂商提供了技术爬坡的缓冲期。随着2025年Rubin GPU量产节点临近,内存速度分级方案或成为高端AI芯片的标配设计。











