在人工智能技术加速突破的当下,算力已成为驱动行业发展的核心引擎。作为全球AI领域的领军企业,OpenAI近期以一系列重磅合作引发业界震动——短短一个月内,该公司接连宣布与博通、英伟达、AMD三大芯片巨头达成战略协议,总计部署规模达26吉瓦的算力基础设施,这一数字相当于现有全球最大AI数据中心集群的数十倍。
最受瞩目的当属OpenAI与英伟达的千亿美元级合作。根据协议,英伟达将分阶段投入最高1000亿美元,为OpenAI构建至少10吉瓦的AI算力系统。这笔投资采用"算力交付即付款"的创新模式,首批约100亿美元资金预计在协议签署后立即到位,用于支持2026年下半年上线的首个1吉瓦级Vera Rubin平台数据中心。据测算,该规模相当于400万至500万颗顶级GPU同时运行,足以支撑OpenAI训练比当前GPT-4更复杂的下一代模型。
在巩固与英伟达合作关系的同时,OpenAI同步推进供应商多元化战略。10月6日,该公司与AMD签署长期合作协议,计划在未来数年内分阶段部署6吉瓦的Instinct MI450系列GPU。这项合作采用"技术换股权"的独特模式:AMD向OpenAI发行最高1.6亿股认股权证,随着每1吉瓦算力部署完成逐步解锁。若全部行权,OpenAI将持有AMD约10%股份,形成深度利益绑定。首批1吉瓦系统将于2026年下半年启动建设,配套机架式解决方案将直接部署在OpenAI自有数据中心。
更引人注目的是OpenAI向芯片设计上游的突破。10月13日,该公司与博通宣布联合开发10吉瓦级定制AI加速器。这项合作突破传统采购模式,OpenAI将主导从晶体管级架构到系统级设计的全流程开发,博通则负责基于以太网技术的机架系统构建。双方已持续合作18个月,致力于打造从底层硬件到上层应用的完全优化堆栈。据OpenAI总裁布洛克曼透露,这种"软硬一体"的设计将使模型响应速度提升数倍,同时降低30%以上的运营成本。
三项合作呈现明显的战略协同:英伟达方案确保中期算力供给的稳定性,AMD合作构建供应商冗余体系,博通项目则瞄准长期技术自主权。值得注意的是,所有项目均将2026年下半年作为关键节点——届时OpenAI将同时运行三个总计达17吉瓦的超级算力集群,这一规模超过全球现有AI算力总和的20%。
行业分析师指出,这种"全链条布局"标志着AI企业从算力消费者向生态构建者的转变。通过同时掌握算法创新、硬件定制和基础设施运营能力,OpenAI正在重塑AI技术发展的权力结构。特别是与博通的深度合作,暗示着未来可能出现专门为AI大模型优化的专用芯片,这或将引发整个半导体行业的范式变革。
随着2026年关键节点的临近,AI领域的军备竞赛正进入新阶段。当26吉瓦算力真正落地时,不仅将改变OpenAI自身的技术演进路径,更可能重新定义全球AI产业的竞争规则。在这场算力与算法的双重博弈中,OpenAI已率先亮出底牌。