ITBear旗下自媒体矩阵:

英伟达GB200 NVL72性能碾压AMD MI355X,成本优势显著成云计算新宠

   时间:2026-01-02 17:24:55 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在AI算力竞争日益激烈的当下,英伟达与AMD在混合专家模型(MoE)领域的性能对决有了新进展。第三方机构Signal65发布的SemiAnalysis InferenceMAX基准测试报告显示,在Deepseek-R1 0528模型的推理场景中,英伟达Blackwell GB200 NVL72机架系统展现出压倒性优势,其单GPU吞吐量达到75 tokens/秒,性能指标是AMD Instinct MI355X的28倍。

混合专家模型作为新一代AI架构的典型代表,通过动态分配任务给特定"专家"模块实现高效计算。这种设计虽能避免传统模型全量参与计算的资源浪费,但当模型规模扩展至千亿参数级别时,跨节点通信延迟和带宽瓶颈成为制约性能的关键因素。Deepseek-R1 0528作为基准测试常用模型,其推理场景恰好暴露了这类架构的典型挑战。

英伟达的解决方案聚焦于系统级协同优化。GB200 NVL72机架通过72颗芯片的紧密互联架构,构建起30TB容量的高速共享内存池,这种"极致协同设计"使全对全通信效率提升数个量级。测试数据显示,在相同集群规模下,该系统不仅吞吐量领先,更将数据传输延迟控制在行业领先水平,有效破解了MoE架构的扩展性难题。

成本效益分析进一步凸显英伟达方案的优势。基于Oracle云定价数据的测算表明,GB200 NVL72机架在保持性能领先的同时,单token处理成本仅为AMD方案的十五分之一。这种性能与成本的双重优势,使其成为超大规模云计算厂商的优先选择,特别是在需要处理海量交互请求的场景中,其经济价值尤为显著。

尽管在MoE领域暂时落后,AMD并未完全失去竞争力。其Instinct MI355X搭载的高容量HBM3e内存,在处理稠密模型时仍具备独特优势。这类模型对内存带宽和容量的要求与MoE架构截然不同,使得AMD方案在特定场景中保持竞争力。不过目前AMD尚未推出能与NVL72直接对抗的机架级解决方案,这在一定程度上限制了其市场拓展空间。

行业观察家指出,随着AMD Helios平台与英伟达Vera Rubin平台相继进入部署阶段,机架级算力竞争将进入新阶段。这两个平台分别代表了两家公司在系统架构设计上的最新思考,其性能表现可能重新定义AI基础设施的标准。特别是在处理万亿参数级模型时,通信效率、内存带宽和能耗控制的综合表现,将成为决定胜负的关键因素。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version