ITBear旗下自媒体矩阵:

黄仁勋谈AI芯片内存之争:SRAM容量受限 难撼HBM核心地位

   时间:2026-01-10 05:01:12 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在近期举办的CES 2026展会上,英伟达首席执行官黄仁勋就行业热议的“是否能用低成本SRAM替代昂贵HBM”问题给出了明确回应。这一讨论源于AI领域对降本增效的迫切需求——随着SRAM加速器、GDDR推理方案及开放权重模型的兴起,部分从业者认为这些技术可减少对英伟达高成本硬件的依赖。

SRAM(静态随机存取存储器)凭借其基于触发器的高速特性,在基准测试中展现出无延迟的访问优势,甚至被视为HBM(高带宽内存)的潜在替代者。黄仁勋承认,对于特定工作负载,SRAM的速度表现“令人惊叹”,但其致命缺陷在于容量限制——当前SRAM可容纳的模型规模仅为HBM系统的百分之一。当AI模型因上下文扩展或功能增加而超出SRAM容量时,系统必须调用外部内存,导致效率优势瞬间丧失。

他进一步指出,现代AI模型的多样性加剧了硬件适配的难度。混合专家模型(MOE)、多模态任务、扩散模型及自回归模型等架构对硬件的需求差异显著:有的依赖显存容量,有的依赖互连带宽(如NVLink),且需求随任务变化动态调整。若硬件过度优化某一特性(如纯SRAM方案),一旦工作负载类型改变,昂贵的芯片将因无法兼容而闲置,造成资源浪费。

基于这一判断,英伟达坚持选择HBM作为核心内存方案。黄仁勋解释,在共享数据中心场景中,硬件的灵活性直接决定经济效益。尽管HBM的物料成本更高,但其能适配算法和模型架构的快速迭代,确保硬件在数周甚至数月的运营周期内保持高利用率。相比之下,专用硬件虽能在5%-10%的任务中表现极致,却无法覆盖其余90%的通用需求,长期来看反而增加成本。

针对“开放模型是否会削弱英伟达技术壁垒”的质疑,黄仁勋回应称,开放并不等同于降低硬件要求。随着开放模型整合更长上下文和更多模态,其内存占用同样会呈指数级增长。英伟达选择承担HBM的高成本与复杂系统设计,正是为了保留“可选性”——既避免客户被锁定在狭窄的性能范围,也保护自身硬件免受模型架构快速迭代的冲击。这一策略的核心在于平衡短期成本与长期适应性,以应对AI技术演进的不确定性。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version