ITBear旗下自媒体矩阵:

AI热潮下,GPU成网络供应商新金矿

   时间:2025-08-16 23:13:29 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

随着人工智能技术的飞速发展,Nvidia预计将在2025年大规模出货其最新的Blackwell GPU,数量高达500万块。然而,这些高性能图形处理器在成为下一代GPT、Gemini或Llama等模型的训练利器之前,必须先联网。这一需求,正悄然为思科、Arista、HPE等以太网交换机供应商以及Nvidia本身开辟出一项庞大的商业机遇。

思科CEO查克·罗宾斯在近期的一次财报电话会议上透露,公司第四季度来自网络规模客户的AI基础设施订单激增,总额超过8亿美元,整个2025财年更是达到了20亿美元,远超最初设定的10亿美元目标。这一数字的翻倍增长,直接反映了AI对网络基础设施需求的迅猛提升。

背后的经济逻辑并不复杂。每当售出一块200或200 GB的GPU,以太网交换机供应商便能借此机会销售大约3至5个交换机端口。端口数量受多种因素影响,包括端口速度、弹性和集群规模。以最大可容纳8,192个GPU的集群为例,采用现代51.2Tb/s交换机和400GbE链路时,仅需一个叶子层和旋转层,但高端配置可能需要多达192个交换机。

对于更大规模的集群,如包含128,000个GPU的系统,交换机数量将急剧增加,需要采用三层胖树拓扑以确保AI后端网络的完全无阻塞连接。这种情况下,大约需要5,000台交换机,若使用较旧的25.5Tb/s网络设备,则需求翻倍至10,000台。除了连接所有节点的后端网络,还需要一个前端网络来处理数据移动,这进一步推高了交换机需求。

光纤和直连铜缆也是不可或缺的组成部分。一个128,000个GPU的集群,其前端和后端网络之间可能需要超过一百万个可插拔光纤连接。罗宾斯指出,光学产品约占其第四季度8亿美元AI网络收入的三分之一,凸显了光纤技术的关键作用。

面对这一趋势,Nvidia正积极推广光子交换机,以大幅减少所需光收发器的数量。在超大规模企业领域,设备供应商的选择并不受限制,只要满足性能要求即可。以太网作为标准技术,理论上允许用户自由组合不同品牌和型号的设备。

Arista的增长势头同样显著。该公司预测全年营收将达到87.5亿美元,其中AI相关销售额占比约17%。Arista CEO Jayshree Ullal表示,随着大型语言模型不断扩展到分布式训练和推理用例,后端和前端将逐渐融合,使得未来准确区分这两部分变得越来越困难。但她预计,到2025年,AI网络总收入将超过15亿美元,并将在未来持续增长。

瞻博网络和HPE也在积极应对AI基础设施需求的增长。尽管在HPE合并案的背景下,瞻博网络的具体需求程度难以评估,但其在AI领域的参与度不容忽视。而Nvidia,作为GPU领域的领头羊,不仅推动了以太网交换机的销售,还通过2019年对Mellanox的69亿美元收购,成为AI网络领域的重要玩家。在第一季度,Nvidia的网络销售额环比增长64%,达到约50亿美元。

Dell'Oro集团预测,到2030年,AI网络将推动近800亿美元的网络销售额。这一预测无疑为网络供应商注入了强大的信心,只要AI泡沫不破裂,他们将迎来一个充满机遇的黄金时代。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version