ITBear旗下自媒体矩阵:

官宣!Intel至强6处理器正式进入NVIDIA新一代旗舰主机

   时间:2026-03-17 15:27:58 来源:快科技编辑:快讯 IP:北京 发表评论无障碍通道
 

3月17日消息,在圣何塞举办的NVIDIA GTC 2026大会上,Intel正式宣布一项重磅合作,其Xeon 6(至强6)处理器将成为NVIDIA下一代旗舰AI服务器系统DGX Rubin NVL8的主机CPU。

这一合作让两家企业在x86架构上的合作更进一步,此前在基于DGX B300 Blackwell的平台上,双方就已采用Xeon 6776P处理器建立了x86架构合作,这也意味着Intel成功“抱上”NVIDIA的大腿,在AI服务器领域站稳了脚跟。

据悉,DGX Rubin NVL8是NVIDIA新一代旗舰AI服务器系统,主打智能体AI和推理系统等新兴应用场景。在这套系统中,主机CPU的作用至关重要,主要负责任务编排、内存管理、调度,以及向GPU加速器传输数据。

而随着AI推理工作负载逐渐向智能体AI和推理系统转型,这些工作对单核性能和内存带宽的要求也越来越高。

Intel方面表示,至强6处理器通过内存容量、带宽和I/O性能的综合提升,刚好能满足这些需求。这款处理器所在的平台可支持高达8TB的系统内存,Intel称这一点对支持键值缓存不断扩大的大型语言模型来说尤为关键。

借助MRDIMM技术,其内存带宽较上一代提升了2.3倍,能显著提升数据传输到GPU加速器的速度。

与此同时,PCIe 5.0通道可实现高带宽的加速器连接,Intel推出的“优先核心睿频加速”(Priority Core Turbo)功能,还能把强劲的单线程性能集中用于编排、调度和数据传输任务,即便工作负载变得更复杂,也能保证GPU维持高利用率。

在安全和兼容性上,至强6处理器通过Intel信任域扩展(TDX),能为CPU到GPU的整个数据路径提供安全防护。其中TDX技术会通过加密反弹缓冲区,增加基于硬件的隔离和认证功能,刚好能满足AI推理在数据中心、云端、边缘等多场景部署时,对端到端机密计算的需求。至强6还新增了对NVIDIA Dynamo推理编排框架的支持,借助这一框架,同一集群内的CPU和GPU资源可实现异构调度。

“在这个新时代,主机CPU的作用至关重要。”Intel公司副总裁兼数据中心战略项目总经理杰夫·麦克维表示,它直接决定着GPU加速系统的编排效率、内存访问速度、模型安全性以及吞吐量。

Intel还提到,至强处理器成熟的x86软件生态、丰富的企业部署经验,以及与现有AI软件栈的良好兼容性,正是NVIDIA选择它的关键原因。

此次双方的合作,沿用了与DGX B300相同的架构基础,让Blackwell和Rubin两代产品实现了平台层面的连续性,有望推动AI推理技术在数据中心、云端、边缘等场景的规模化落地。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version