在近日举办的NVIDIA GTC 2026大会上,Intel与NVIDIA宣布达成一项重要合作:Intel Xeon 6(至强6)处理器将作为主机CPU,应用于NVIDIA下一代旗舰AI服务器系统DGX Rubin NVL8。这一合作标志着两家科技巨头在x86架构领域的协作进一步深化,此前双方已在基于DGX B300 Blackwell的平台上,通过Xeon 6776P处理器建立了技术协同。
DGX Rubin NVL8是NVIDIA面向智能体AI和推理系统等新兴场景推出的新一代服务器系统,其核心架构对主机CPU的性能提出了更高要求。作为系统“大脑”,主机CPU需承担任务编排、内存管理、数据调度以及向GPU加速器传输数据等关键职能。随着AI推理工作负载向高复杂度场景转型,单核性能与内存带宽的瓶颈问题愈发突出,这对硬件架构的协同效率提出了严峻挑战。
针对这些需求,Intel至强6处理器通过多维度技术升级构建了解决方案。该平台支持最高8TB系统内存,这一特性对处理键值缓存持续扩张的大型语言模型至关重要。通过引入MRDIMM技术,其内存带宽较前代提升2.3倍,显著优化了数据向GPU传输的效率。在I/O层面,PCIe 5.0通道与“优先核心睿频加速”功能的结合,使单线程性能能够精准聚焦于关键任务,确保GPU在复杂工作负载下保持高利用率。
安全与兼容性是此次合作的另一重点。至强6处理器搭载的Intel信任域扩展(TDX)技术,通过加密反弹缓冲区和硬件级隔离认证,构建了从CPU到GPU的全链路安全防护体系。这一设计完美契合AI推理在数据中心、云端及边缘场景部署时对端到端机密计算的需求。处理器新增对NVIDIA Dynamo推理编排框架的支持,实现了集群内CPU与GPU资源的异构调度,进一步提升了系统整体效能。
Intel公司副总裁兼数据中心战略项目总经理杰夫·麦克维强调,在AI加速系统中,主机CPU的性能直接决定着GPU的编排效率、内存访问速度、模型安全性及系统吞吐量。至强系列处理器成熟的x86软件生态、广泛的企业部署经验,以及与现有AI软件栈的高度兼容性,成为NVIDIA选择其作为合作伙伴的核心考量因素。
此次技术协作延续了DGX B300的架构基础,在Blackwell与Rubin两代产品间实现了平台连续性。这种设计不仅降低了用户的迁移成本,更通过硬件与软件的深度适配,为AI推理技术在多场景的规模化应用提供了技术保障。随着智能体AI等新兴领域的快速发展,此次合作有望推动相关技术从实验室走向实际生产环境,重塑AI基础设施的竞争格局。










