全球人工智能领域领军企业OpenAI近期被曝正在加速布局算力多元化战略,将目光从传统GPU供应商英伟达转向新兴推理芯片企业。这一转变源于其在复杂AI应用场景中遭遇的硬件性能瓶颈,特别是在代码生成和实时交互等任务中,现有硬件架构的响应速度已难以满足专业用户需求。
据知情人士透露,OpenAI已将战略重心从模型训练转向推理优化——即AI系统向终端用户输出答案的关键环节。在处理高并发、低延迟任务时,传统GPU架构因需要频繁调用外置显存,导致芯片运算单元长期处于等待数据状态,这种技术缺陷在代码生成类应用中尤为突出。公司CEO山姆·奥特曼公开表示,开发者群体对模型生成速度的敏感度远超预期,现有硬件架构已成为产品体验的掣肘因素。
为突破性能瓶颈,OpenAI正通过多维度布局重构算力体系。在硬件合作层面,公司已与Cerebras建立战略伙伴关系,后者研发的晶圆级芯片通过集成海量静态存储器(SRAM),将数据访问路径缩短至传统架构的百分之一。同时,OpenAI此前与专注推理加速的Groq公司也保持技术接洽,试图通过定制化芯片优化对话式AI系统的响应效率。据内部测算,新型硬件将承担约10%的推理算力需求。
这种技术路线的调整正在重塑AI产业供应链格局。原本进展顺利的英伟达千亿美元级合作协议出现变数,这项包含芯片供应与股权置换的交易已停滞数月。与此同时,OpenAI加速推进采购多元化战略,近期与AMD等厂商签署新的GPU供应协议,并扩大对其他专用芯片的采购规模。行业分析师指出,这种转变与竞争对手的技术路线密切相关——Anthropic的Claude和谷歌Gemini模型均采用谷歌自研TPU架构,在推理任务中展现出显著优势。
面对合作伙伴的战略转向,英伟达CEO黄仁勋在公开场合仍强调双方合作"从未如此紧密",但市场数据显示,OpenAI已开始实质性削减对单一供应商的依赖。随着新型推理芯片陆续进入量产阶段,AI算力市场正从英伟达主导的"一超"格局,向包含AMD、Cerebras、Groq等企业的多极化生态演变。这场由应用需求驱动的技术变革,或将重新定义下一代AI基础设施的标准。










