据行业内部消息透露,人工智能研究机构OpenAI近期达成一项重大合作协议,计划在未来三年内向芯片制造商Cerebras投入超过200亿美元资金。这笔资金将用于构建由Cerebras定制芯片驱动的专用服务器集群,标志着OpenAI在硬件基础设施领域迈出关键战略转型步伐。
此次合作的核心目标在于优化算力成本结构。当前全球AI训练市场高度依赖英伟达GPU,导致硬件采购成本居高不下。通过引入Cerebras的晶圆级芯片解决方案,OpenAI期望打破单一供应商依赖格局,在保持模型训练效率的同时,将硬件支出占比降低至行业平均水平的60%以下。据知情人士分析,Cerebras芯片特有的单芯片集成万亿晶体管架构,在处理大规模并行计算任务时具有显著能效优势。
市场观察人士指出,这项投资不仅涉及芯片采购,更包含联合研发条款。双方将组建200人规模的专项团队,针对Transformer架构优化芯片指令集,并开发配套的分布式计算框架。这种深度合作模式可能重塑AI硬件生态,特别是在10万亿参数以上超大模型的训练领域,有望形成区别于传统GPU集群的技术路线。
金融分析师测算,若合作顺利实施,OpenAI的年度运营成本结构将发生根本性改变。目前占研发支出45%的硬件采购费用,预计在2027年降至28%左右。这种成本优化将直接转化为模型迭代速度的提升,可能使GPT系列模型的更新周期缩短至当前的一半。值得注意的是,该协议包含排他性条款,限制Cerebras在协议期内向其他大型语言模型开发商提供同等规格算力服务。











