AIPress.com.cn报道
3月20日消息,据 Decrypt 报道,英伟达将为亚马逊云服务(AWS)提供大规模 GPU 支持,以应对日益增长的人工智能计算需求。AWS 本周宣布,计划到 2027 年在全球云区部署约100 万块 Nvidia GPU,并扩展与英伟达在网络和基础设施方面的合作,以构建“能够在复杂工作流中自主推理、规划和行动”的智能系统。
AWS 正在研发自有 AI 芯片以支持训练和推理计算。这一合作表明,AI 推理计算的需求正在推动云基础设施的结构发生变化,而越来越多的活动与实时服务运行 AI 模型紧密相关。观察人士指出,这一趋势正在塑造云计算与芯片供应商之间的竞争格局。
策略与增长工作室ZenGen Labs联合创始人 Dermot McGrath 表示:“英伟达 已不仅仅是芯片供应商,而正在成为云服务提供商底层基础设施。”他指出,推理计算现已占 AI 计算量约三分之二,而 2023 年仅约占三分之一。德勤估计,到 2026 年,仅推理计算芯片市场规模就将超过 500 亿美元。
在该部署计划中,AWS 将同时使用 Nvidia 和自研芯片,为客户提供比封闭系统更灵活的选择,这种组合也是其差异化优势之一。McGrath 指出:“现在 英伟达不仅提供芯片,还参与网络和机架架构设计。”
推理计算芯片专门用于实时运行训练好的 AI 模型,而无需重新训练。专家认为,Nvidia 深度嵌入 AWS 云基础设施,强化了客户切换成本和上下文数据积累,这成为其长期竞争壁垒。
尽管 AWS 正在开发自有芯片,但英伟达在推理计算、网络和系统层面的广泛部署仍将确保其在云端 AI 基础设施中的核心地位。分析人士指出,这种“基础设施翻转”现象表明,云服务商对 AI 推理计算的依赖正在加深,而英伟达的全栈方案为其奠定了长期竞争优势。(AI普瑞斯编译)









