ITBear旗下自媒体矩阵:

英伟达发布Vera Rubin平台:以创新架构开启AI全生命周期新纪元

   时间:2026-03-17 08:32:56 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在近日举办的全球科技盛会上,英伟达公司正式推出面向智能体AI时代的Vera Rubin平台,标志着这家芯片巨头在AI基础设施领域实现重大突破。该平台通过整合全新架构的处理器、加速卡和存储系统,构建起覆盖AI全生命周期的完整解决方案,从大规模预训练到实时推理应用均可高效支持。

英伟达创始人黄仁勋在主题演讲中强调,Vera Rubin平台的推出是公司发展历程中的里程碑事件。这个基于Arm架构的生态系统不仅包含新一代CPU和GPU,更通过硬件创新重新定义了AI计算效率标准。值得注意的是,英伟达此次直接切入传统CPU市场,将与英特尔、AMD等老牌厂商展开全面竞争,同时对云计算巨头自研的Arm处理器构成挑战。

核心处理器方面,Vera CPU采用深度定制的Arm v9.2-A Olympus核心,单芯片集成88个物理核心和144个逻辑线程。通过引入"空间多线程"技术,该处理器实现了真正的单核多线程并行计算,彻底解决了传统超线程技术中资源竞争导致的性能损耗问题。实测数据显示,其指令级并行度较前代提升50%,在特定工作负载下可带来显著的性能跃升。

在计算集群层面,NVL72机架成为新的效率标杆。这个由72块Rubin GPU和36块Vera CPU组成的超级计算单元,通过NVLink 6技术实现全互联通信。对比前代Blackwell平台,新系统在混合专家模型训练中仅需四分之一的GPU资源,同时将每瓦推理性能提升10倍,单Token处理成本降至原先的十分之一。这种突破性进展使得构建超大规模AI模型的成本大幅降低。

针对AI推理场景的特殊需求,英伟达同步推出Groq 3 LPX加速机架。该系统配备256个专用LPU处理器,与Vera Rubin平台协同工作时,可将每兆瓦推理吞吐量提升至最高35倍。这种架构创新特别适用于需要低延迟响应和长上下文处理的智能体应用,为实时交互型AI服务提供了强大的硬件支撑。

存储系统的革新同样引人注目。全新BlueField-4 STX机架通过DOCA Memos框架重构了AI数据存储架构,能够高效处理大型语言模型产生的海量键值缓存数据。测试表明,该系统在保持低能耗的同时,将推理吞吐量提升最高5倍,显著优化了AI多轮对话的响应速度。这种存储与计算的高度协同,为构建更智能的对话系统奠定了基础。

为验证新平台的实际效能,英伟达还展示了专为AI模型验证设计的液冷CPU机架。该系统集成256块Vera CPU,通过先进的液冷技术将运行效率提升至传统方案的两倍,同时数据处理速度提高50%。这种高密度计算方案特别适用于需要大规模并行验证的AI开发场景,可显著缩短模型优化周期。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version