ITBear旗下自媒体矩阵:

谷歌TPU推理成本大降70% 追平英伟达,AI芯片竞争格局生变

   时间:2026-01-21 16:54:57 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在人工智能领域资本投入持续高位运行、商业化压力日益凸显的背景下,市场对大模型发展的关注焦点正发生微妙而深刻的变化——曾经被视为核心指标的算力规模,开始让位于更具现实意义的成本控制问题。高盛最新发布的AI芯片研究报告,以推理阶段的单位成本为切入点,通过构建成本模型揭示了行业格局正在经历的重大转变。

这份研究报告突破了传统分析框架,不再局限于芯片制程、算力参数等硬件指标,转而聚焦于实际商业场景中的综合成本。高盛团队构建的"推理成本曲线"显示,当模型进入高频调用阶段后,芯片折旧、能耗效率、系统利用率等要素共同决定了每百万token的处理成本。这一分析框架下,谷歌与博通联合研发的TPU芯片展现出惊人的竞争力:从v6到v7的迭代中,单位推理成本下降达70%,在多数测算场景中已与英伟达最新款GB200 NVL72持平,部分情况下甚至更具优势。

行业格局的演变并非一蹴而就。早期AI发展阶段,训练算力被视为决定技术话语权的关键因素,芯片性能直接关联模型规模与训练速度。但随着大模型进入部署阶段,推理负载呈现指数级增长,成本因素开始主导商业决策。高盛分析指出,当前芯片性价比已由单卡性能转向系统效率,算力密度、互联带宽、内存架构等系统级指标成为决定成本曲线的核心要素。这种转变使得TPU通过系统优化实现的成本优势,得以在商业化场景中转化为实际竞争力。

TPU的成本突破并非依赖单一技术突破,而是系统级工程能力的集中体现。研究报告详细拆解了其降本路径:通过优化网络互联架构降低通信延迟,采用先进封装技术提升芯片密度,集成高带宽内存方案减少数据搬运能耗,以及机架级散热设计提高能源利用效率。这些技术组合使TPU在推理场景中展现出显著经济性,与其在谷歌内部Gemini模型训练推理中的广泛应用形成良性循环。外部市场方面,Anthropic向博通下达的210亿美元订单,标志着TPU方案开始获得主流AI企业的认可。

面对竞争格局的变化,英伟达仍保持着独特优势。高盛特别强调其"上市时间"策略的有效性:当TPU v7刚实现成本追平时,英伟达已推进至GB300 NVL72研发,并计划在2026年推出VR200 NVL144。这种持续迭代能力不仅维持了客户黏性,更通过CUDA生态构建了难以逾越的技术壁垒。投资机构普遍认为,英伟达在训练市场和通用算力领域的统治地位,短期内仍难以被撼动。

资本市场对这场变革的反应呈现分化态势。高盛维持对英伟达和博通的"买入"评级,认为两者深度绑定AI基础设施中最具持续性的投资领域。其中博通的受益逻辑尤为清晰,该机构将其2026财年每股收益预期上调6%,指出市场低估了其在AI网络和定制计算领域的长期盈利能力。对于AMD和亚马逊Trainium,虽然当前单位推理成本仍高于行业领先水平,但高盛认为AMD的机架级方案存在后发优势,预计2026年末基于MI455X的Helios机架方案可能实现70%的成本下降。

这场竞争正在重塑AI产业链的价值分配。研究报告描绘的产业图景显示,GPU将继续主导训练市场和通用计算场景,而定制化ASIC芯片则在规模化推理负载中持续渗透。英伟达的生态优势与系统级研发投入构成坚实护城河,但其估值逻辑将不得不面对"推理成本下行"的现实检验。当AI发展进入"每个token都要计算回报"的阶段,技术竞争最终要回归商业本质,这场成本效率的较量或许比单纯的算力竞赛更能决定产业未来走向。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version