ITBear旗下自媒体矩阵:

CSP自研芯片浪潮下 英伟达多元布局AI训练与推理 抢占市场先机

   时间:2026-03-18 21:45:49 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在大型云端服务供应商(CSP)加速自研芯片布局的背景下,英伟达正调整其AI市场战略重心。据TrendForce集邦咨询最新研究显示,该公司将在GTC 2026大会上重点展示AI推理应用的实际落地案例,这与过去聚焦云端AI训练市场的策略形成鲜明对比。通过构建GPU、CPU与LPU的多元产品矩阵,英伟达试图同时满足AI训练与推理的差异化需求,并依托机柜级整合方案推动供应链协同发展。

随着谷歌、亚马逊等科技巨头自研芯片的渗透率持续提升,专用集成电路(ASIC)在AI服务器市场的占比预计将从2026年的27.8%跃升至2030年的近40%。这一趋势迫使英伟达加速技术迭代,其最新推出的Vera Rubin系统被定义为高度垂直整合的解决方案,包含七款定制芯片与五款机柜设计,旨在通过软硬件深度协同提升计算效率。

在产品部署节奏方面,英伟达计划于2026年第二季度开始为Rubin GPU搭载HBM4高带宽存储器,第三季度实现相关芯片的批量出货。其GB300整柜式系统自2025年第四季度取代前代产品成为主力机型后,预计2026年出货量占比将突破80%;而VR200机柜系统则需待2026年第三季度末完成ODM厂商验证后,才能逐步释放产能。

针对AI代理模型时代面临的延迟与存储瓶颈,英伟达通过整合Groq团队技术推出Groq 3 LPU推理专用芯片。该产品单颗集成500MB静态随机存取存储器(SRAM),整机柜容量可达128GB,但受限于存储规模仍无法承载Vera Rubin级别的模型参数。为此,英伟达创新性地提出"解耦合推理"架构,通过Dynamo作业系统将推理流程拆分为两个阶段:数学运算密集的预填充(Pre-fill)与注意力(Attention)计算交由Vera Rubin执行,而对带宽敏感的译码与令牌生成环节则转移至配备扩展存储的LPU机柜。

供应链动态显示,三星代工的第三代Groq LP30芯片已进入全产能生产阶段,预计2026年下半年开始交付。英伟达还透露,基于Feynman架构的下一代LP40芯片正在研发中,其性能指标较现有产品将有显著提升,这表明公司在低延迟推理领域的布局仍在持续深化。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version