ITBear旗下自媒体矩阵:

英伟达发布新平台:每机柜配备256个LPU

   时间:2026-03-18 02:19:41 来源:财联社编辑:快讯 IP:北京 发表评论无障碍通道
 

在GTC 2026主题演讲上,一款名为英伟达Groq 3 LPU的全新芯片正式亮相。

北京时间周二凌晨,英伟达正式推出Vera Rubin平台,包括Groq 3 LPU(简称LPU)在内,共计搭载了七款芯片,分别为Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9超级网卡、BlueField-4 DPU和Spectrum-6以太网交换机。

据悉,英伟达将构建包含256个LPU的Groq 3 LPX机架,提供128GB(每个LPU集成500MB的SRAM)的SRAM和40 PB/s的推理加速带宽,并通过每个机架640 TB/s的专用扩展接口将这些芯片连接起来。这款机架将与Vera Rubin NVL72、Vera CPU等另外四款机架一同构成完整的AI超级计算机平台Vera Rubin。

英伟达表示,Groq 3 LPX 是Vera Rubin的推理加速器,旨在满足智能体系统对低延迟和大上下文的需求。Vera Rubin和LPX通过协同设计的架构,将Rubin GPU和LPU的卓越性能完美结合,使其呈现极低延迟与超大吞吐量的特点。

黄仁勋介绍称,LPX与Vera Rubin平台结合后,推理吞吐量/功耗比将能提升35倍。LPU芯片将由三星代工,预计机架将于今年下半年开始出货。

就在昨日,分析师郭明錤发文称,在英伟达投资Groq之后,LPU的出货量预测已大幅上调。预计2026至2027年的总出货量将达到400万至500万颗。新架构机柜预计于今年第四季度开始量产,2026年与2027年机柜出货量分别约为300至500个,以及15000至20000个。

在他看来,LPU需求增长快速增长主要来自外部因素。一方面,LPU与英伟达生态系(如CUDA)高度整合,大幅降低应用开发与部署门槛。另一方面,如今业内超低延迟推理需求快速增加,包括AI智能体(AI Agents)以及正在兴起的即时处理(Real-Time)、终端用户(Consumer-Facing)与物理AI(Physical-AI)等类型应用。

值得一提的是,黄仁勋在主题演讲上也强调,AI已完成从感知智能到生成智能,再到物理智能和智能体智能的关键跃迁。

财通证券指出,大模型在推理过程中会存在延迟,延迟与用户体验感精密挂钩,大模型推理过程中的延迟主要在Decode阶段,核心瓶颈在于内存带宽。LPU具备更快的内存带宽,可缩短大模型推理过程中的延迟。同时,基于LPU的大模型不仅具有更快的推理速度,还可以提供更具性价比的价格,可进一步提高用户体验感。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version