ITBear旗下自媒体矩阵:

Nvidia发布Rubin架构:速度能效双提升,为AI计算注入强劲新动力

   时间:2026-01-06 19:05:21 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在近期举办的消费电子展(CES)上,Nvidia公司首席执行官黄仁勋宣布了一项重大技术突破——全新Rubin计算架构正式问世。这款被视为人工智能硬件领域里程碑的产品,不仅标志着Nvidia在硬件研发领域的持续领先,更预示着AI计算能力即将迎来新一轮飞跃。目前,Rubin架构已进入量产阶段,并计划于今年下半年全面推向市场。

黄仁勋在发布会上强调,Rubin架构的研发初衷是应对AI领域日益增长的算力需求。他指出:“随着AI技术的快速发展,计算量正以前所未有的速度激增。Rubin架构的推出,正是为了解决这一根本性挑战。”据介绍,该架构已全面投入生产,并将逐步取代现有的Blackwell架构,后者此前已相继替代了Hopper和Lovelace架构。

在应用层面,Rubin芯片已经获得了多家主流云服务提供商的青睐,包括与Anthropic、OpenAI以及亚马逊网络服务(AWS)等企业的深度合作。该架构还将被应用于HPE的Blue Lion超级计算机和劳伦斯·伯克利国家实验室即将启用的Doudna超级计算机项目,进一步彰显了其在高端计算领域的实力。

Nvidia的AI基础设施解决方案高级总监Dion Harris在电话会议中详细阐述了新存储技术的优势。他提到,随着现代AI系统对缓存相关内存需求的不断增加,尤其是自主AI和长期任务等新工作流的引入,对键值缓存(KV cache)提出了更高要求。Rubin架构通过引入一种新的存储层,实现了与计算设备外部的高效连接,从而显著扩展了存储池的容量和性能。

性能测试数据显示,Rubin架构在模型训练任务上的速度较前代Blackwell架构提升了三倍半,而在推理任务上则快了五倍。其计算能力高达50拍浮点运算每秒(petaflops),同时每瓦特支持的推理计算能力也提升了八倍。这些数据充分证明了Rubin架构在速度和能效方面的卓越表现。

Rubin架构的推出正值全球AI基础设施竞争日益激烈之际。各大AI实验室和云服务提供商纷纷加大投入,争相采购Nvidia的芯片及相关运算设施。此前,黄仁勋曾预测,未来五年内将有3000亿至4000亿美元的资金涌入AI基础设施建设领域,这一趋势无疑将为Rubin架构的广泛应用提供有力支撑。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version