英伟达在人工智能基础设施领域再推重磅新品。据媒体报道,该公司正式披露了下一代AI系统Vera Rubin的研发进展,这款被视为"能效革命者"的新品预计于年内投入市场。其核心突破在于每瓦性能较前代Grace Blackwell提升10倍,通过硬件架构革新破解了AI算力扩张与能源消耗的长期矛盾。
在加州总部举行的技术展示会上,AI基础设施负责人迪翁·哈里斯揭开了Vera Rubin的神秘面纱。这个由130万个精密零件构成的复杂系统,整合了来自全球20余个国家80多家供应商的技术结晶。其中72颗Rubin GPU与36颗Vera CPU组成的计算核心由台积电代工,而液冷模块、供电系统等关键组件则通过跨国协作完成。特别值得注意的是,中国供应商深度参与了该系统的零部件供应体系。
能效优化成为新系统的最大卖点。尽管整机功耗较前代增加一倍,但通过架构创新实现的性能跃升,使得单位能耗下的算力输出提升达10倍。这种突破性设计直指当前AI产业发展的核心痛点——数据中心的电力消耗已占全球总用电量的2%,且随着大模型训练需求呈指数级增长。英伟达工程师特别强调,Vera Rubin的能效表现相当于在相同电力预算下,可部署10倍规模的AI计算集群。
为支撑更高功耗的运算需求,该系统首次采用全液冷散热方案。展示现场的技术人员演示了闭环液冷系统的工作原理:特殊冷却液在密闭管道中循环,通过相变过程吸收热量,较传统风冷方案节能40%的同时,水资源消耗降低95%。这种设计使单机架功率密度突破200kW/m³,为构建超大规模AI数据中心提供了可行性方案。
数据传输能力同样实现质的飞跃。新一代NVLink互联技术将机架内数据带宽提升至每秒260TB,相当于每秒可传输13万部高清电影。为实现这种超高速互联,工程师在单机架内布设了5000根铜缆,总长度超过3公里。这种设计既保证了信号完整性,又避免了光模块带来的成本激增问题。
在技术展示环节,英伟达还预告了正在研发的Kyber机架原型。这款将GPU数量扩展至288颗的超级机架,通过优化布线设计使重量仅增加50%,而算力密度提升达4倍。该技术将率先应用于Vera Rubin Ultra系统,预计明年推向市场,届时单机架即可支撑千亿参数大模型的实时训练需求。











