刚刚,英伟达CEO黄仁勋穿着鳄鱼皮夹克,在全球最大消费电子展CES 2026上发布AI新品。
这是五年来,英伟达首次来到CES却没有发游戏显卡,态度很明确:
全力搞AI。
全力搞出来的结果也让围观群众直呼:竞争对手如何追上英伟达?
下一代Rubin架构GPU推理、训练性能分别是Blackwell GB200的5倍和3.5倍(NVFP4数据格式)。
除此之外,老黄还带来了五大领域的全新发布,包括:
面向Agentic AI的NVIDIA Nemotron模型家族面向物理AI的NVIDIA Cosmos平台面向自动驾驶开发的全新NVIDIA Alpamayo模型家族面向机器人领域的NVIDIA Isaac GR00T面向生物医学的NVIDIA Clara同时,英伟达宣布持续向社区开源训练框架以及多模态数据集。其中数据集包括10万亿语言训练token、50万条机器人轨迹数据、45.5万个蛋白质结构、100TB车辆传感器数据。
这次的核心主题,直指物理AI。
用网友的话来说:
这是英伟达将护城河从芯片层进一步拓展到全栈平台层(模型+数据+工具)的体现,通过这种方式可以持续拉动更多GPU与基础设施投入,并显著增强用户与生态的锁定。
值得一提的是,咱国产开源模型又双叒被cue到了。
老黄在演讲开篇便提及了DeepSeek,Kimi K2、Qwen也出现在PPT展示页上。
正式推出Vera Rubin NVL72老黄正式推出英伟达下一代AI数据中心的机柜架构Vera Rubin,披露架构细节。
六大核心组件共同构成VeraRubin NVL72机架:
Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4数据处理单元(DPU)、Spectrum-6 Ethernet switch。
在NVFP4数据类型下,Rubin GPU推理性能可达50 PFLOPS,是Blackwell GB200的5倍;NVFP4训练性能为35 PFLOPS,是Blackwell的3.5 倍。
为支撑这些计算能力,每颗Rubin GPU封装了8组HBM4内存,提供288GB容量和22 TB/s的带宽。
随着主流大模型转向MoE架构,模型得以相对高效地进行规模扩展。然而,这些专家模块之间的通信,对节点间带宽提出了极高要求。
Vera Rubin引入了用于规模内扩展网络的NVLink 6。
它将单GPU的互连带宽提升至3.6 TB/s(双向)。每颗NVLink 6交换芯片提供28 TB/s的带宽,而每个Vera Rubin NVL72机架配备9颗这样的交换芯片,总规模内带宽达到260 TB/s。
NVIDIAVera CPU集成了88个定制的Olympus Arm核心,采用英伟达称为“spatial multi-threading”设计,最多可同时运行176个线程。
用于将Vera CPU与Rubin GPU进行一致性连接的NVLink C2C互连,其带宽提升了一倍,达到1.8 TB/s。每颗Vera CPU可寻址最多1.5 TB的SOCAMM LPDDR5X内存,内存带宽最高可达1.2 TB/s。
为将Vera Rubin NVL72机架扩展为每组8个机架的DGX SuperPod,英伟达推出了一对采用共封装光学(CPO)的Spectrum-X以太网交换机,均基于Spectrum-6芯片构建。
每颗Spectrum-6芯片提供102.4 Tb/s的带宽,英伟达基于该芯片推出了两款交换机。
SN688提供409.6 Tb/s的总带宽,支持512个800G以太网端口或2048个200G端口。
SN6810则提供102.4 Tb/s的带宽,可配置为128 个800G或512个200G以太网端口。
这两款交换机均采用液冷设计,英伟达表示,与不具备硅光子技术的硬件相比,它们在能效、可靠性和运行时间方面表现更优。
随着上下文窗口扩展到数百万token,英伟达还指出,存储AI模型交互历史的键值缓存(KV cache)相关操作,已成为推理性能的瓶颈。
此前黄仁勋曾表态:没有HBM,就没有AI超算。
为突破这一限制,英伟达推出新硬件BlueField-4 DPU,构建了一个新的内存层级,称为推理上下文内存存储平台(Inference Context Memory Storage Platform)。
英伟达表示,这一存储层旨在实现键值缓存数据在AI基础设施中的高效共享与复用,从而提升系统响应速度和吞吐能力,并实现Agentic AI架构可预测、能效友好的规模扩展。
这是Vera Rubin首次将英伟达的可信执行环境扩展至整个机架级别。
整体来看,每个Vera Rubin NVL72机架可提供:
3.6exaFLOPS的NVFP4推理性能2.5exaFLOPS的NVFP4训练性能54 TB的LPDDR5X内存(连接至VeraCPU)20.7 TB的HBM4内存,带宽达1.6 PB/s为保障机架系统的持续高效运行,英伟达在机架层面引入了多项改进,包括无缆化模块托盘设计,使组件更换速度显著快于此前的NVL72机架;增强的NVLink弹性能力,实现零停机维护;以及第二代RAS引擎,可在不中断服务的情况下完成健康检测。
另外,英伟达表示,与Blackwell相比,Vera Rubin在训练MoE模型时所需的GPU数量仅为四分之一;在MoE推理场景下,其每token成本最高可降低10倍。反过来看,这也意味着Rubin能在相同机架空间内,大幅提升训练吞吐量,并生成远多于以往的token数量。
据介绍,目前用于构建Vera Rubin NVL72所需的六类芯片已全部从晶圆厂交付,英伟达预计将在2026年下半年启动Vera Rubin NVL72的规模化量产。
自动驾驶全新开源模型系列发布再来看英伟达重磅推出的全新开源模型系列——Alpamayo,面向安全推理的自动驾驶。
全球首款开源、大规模的自动驾驶视觉-语言-行动(VLA)推理模型Alpamayo 1,参数100亿。
它能够让自动驾驶车辆理解周围环境,并对自身的决策行为做出解释。
模型接收车辆自身的运动历史数据、多摄像头采集的实时视频画面、用户指令三类输入信息,然后进行推理,之后生成具体的驾驶决策、因果推理结果、规划出的行驶轨迹。
配套推出的还有一款开源仿真框架——AlpacaSim。
它支持在各种不同的环境与边缘场景中,对基于推理的自动驾驶模型进行闭环训练与评估。
英伟达还发布了一个包含1700小时驾驶数据的开源数据集。这些数据采集于全球最广泛的地理区域与环境条件下,涵盖了推进推理架构发展所必需的罕见及复杂真实边缘场景。
落地方面,据介绍,Alpamayo将率先搭载于2025年第二季度欧洲上市的梅赛德斯-奔驰CLA车型,后续将通过OTA升级逐步推送高速公路脱手驾驶、城市全场景自动驾驶、端到端自动泊车等功能,并计划登陆美国市场。
英伟达基于自身技术构建的全球L4级自动驾驶与Robotaxi生态系统全景也亮相了,通过连接软件开发商、整车厂/出行平台、硬件供应商,覆盖全产业链。
Nemotron再推专项模型NVIDIA Nemotron在AI智能体领域的新拓展,核心是在已发布的Nemotron 3开放模型与数据基础上,进一步推出针对语音、RAG以及安全三大场景的专项模型。
其中,Nemotron Speech包含新的自动语音识别(ASR)模型,不仅语音识别性能强,而且能支持实时字幕生成这样的实时低延迟场景,速度比同类模型快10倍。
英伟达表示,目前博世已采用该模型实现司机与车辆之间的交互。
Nemotron RAG则搭载新的视觉语言模型,能精准处理多语言、多模态数据,有效提升文档搜索效率。
Nemotron Safety系列模型专注于增强AI应用的安全性与可信度,具体包括支持更多语言的Llama Nemotron内容安全模型,以及高精度检测敏感数据的Nemotron PII模型。
机器人推理大脑Cosmos升级活动现场,老黄宣布英伟达为机器人推出的懂推理的“大脑”Cosmos再度升级。
Cosmos主要被用来生成符合现实世界物理规律的合成数据,自发布以来,已被Figure、Agility Robotics、通用汽车等一众知名机器人和自动驾驶公司采用。
这次全新发布了:
Cosmos Reason 2:一款全新的、排名领先的视觉-语言推理模型(VLM)。它能够帮助机器人与AI智能体更精准地感知、理解并与物理世界进行交互。Cosmos Transfer 2.5与Cosmos Predict2.5:两款领先的模型,可在各种不同的环境与条件下,生成大规模的合成视频。英伟达还基于Cosmos模型,为各类物理AI应用推出了专用的开源模型与参考蓝图:
Isaac GR00TN1.6:一款专为类人机器人打造的开源视觉-语言-行动(VLA)推理模型。它支持机器人的全身控制,并集成了英伟达Cosmos Reason模型,以实现更强大的推理能力与上下文理解能力。
NVIDIA AI Blueprint for Video Search and Summarization:作为英伟达Metropolis平台的一部分,该蓝图提供了一套参考工作流,可用于构建视觉AI智能体。这些智能体能够分析大量的录播及直播视频,从而提升运营效率并保障公共安全。
据了解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord等企业正采用Cosmos Reason模型,开发面向交通与职场生产力提升的AI智能体。Franka Robotics、Humanoid和NEURA Robotics则利用Isaac GR00T模型,在机器人大规模量产前,对其全新行为进行仿真、训练与验证。
针对医疗健康与生命科学的AINVIDIA Clara是专门针对医疗健康与生命科学领域的AI技术工具。
核心目标是降低行业成本、加速治疗方案落地,打通数字科研与实际医疗应用之间的壁垒。
该系列中的多款专项模型各有侧重:
La-Proteina能设计原子级精度的大型蛋白质;ReaSyn v2在药物发现阶段就开始考虑“如何生产”的问题;KERMT可以预测潜在药物进入人体后的反应,提前排查安全问题;RNAPro用来预测RNA分子复杂的3D结构,推进个性化医疗方案。模型之外,老黄表示英伟达还将为研究者提供含45.5万个合成蛋白质结构的数据集。










