ITBear旗下自媒体矩阵:

OpenAI与博通10GW定制AI加速器合作,为AGI演进筑牢硬件根基

   时间:2025-10-14 14:34:31 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

OpenAI与博通联合宣布的10GW定制AI加速器项目,犹如在算力竞赛中投下一枚重磅炸弹。这场历时18个月的秘密合作,不仅标志着OpenAI首款自研芯片从蓝图走向现实,更预示着AI行业将告别"通用GPU堆砌"时代,转向"软硬件深度协同"的新纪元,为通用人工智能(AGI)的演进筑牢硬件根基。

合作的核心目标直指大模型发展的算力瓶颈。随着GPT系列模型参数从千亿级跃升至万亿级,叠加Sora等多模态应用的爆发式增长,传统通用GPU的计算冗余问题日益凸显。OpenAI首席执行官山姆·奥特曼坦言:"当模型参数突破万亿级后,算力需求呈指数级攀升,自主设计芯片已成为掌控技术命运的关键。"此前,OpenAI对英伟达的依赖度高达80%,2024年算力支出占营收比例达42%,而单颗H100 GPU高达3万美元的成本与8-12个月的交付周期,已难以匹配其技术迭代速度。

定制化成为破局的核心路径。双方打造的"算法驱动硬件"模式颇具创新性:OpenAI将大模型开发中积累的Transformer优化内核、多模态并行计算逻辑等经验,直接转化为硬件设计规范;博通则依托3D封装、硅光链路等前沿技术,采用台积电1.6nm工艺实现每平方毫米百万级晶体管密度。这种协同带来的效能提升显著——相比通用GPU,新芯片算力效率提升30%-50%,单位算力成本降低30%-40%,相同性能下功耗减少15%-20%。

10GW的规模背后,暗藏行业格局的深刻变革。这一算力体量相当于五座胡佛水坝的满发功率,叠加此前与英伟达(10GW)、AMD(6GW)的协议,OpenAI总算力储备已达26GW,需26座常规核电站支撑。更具颠覆性的是技术路线之争:新系统全面采用博通以太网解决方案,以5倍于传统铜互联的带宽和十分之一的延迟,直接挑战英伟达InfiniBand技术的垄断地位。

此举亦是OpenAI构建算力主权的关键布局。通过"三足鼎立"的供应链体系,其不仅分散了供应风险,更获得了技术话语权——可直接参与芯片设计反馈,将模型需求深度融入硬件迭代。对博通而言,这一合作助其完成战略升级:凭借定制ASIC领域55%以上的市场份额,从网络芯片供应商转型为AI计算全栈解决方案提供商,预计2025年AI收入将增至170亿美元。

从行业视角看,这场合作拉开了AGI时代全链条竞争的序幕。贝恩咨询预测,到2030年全球AI基础设施年营收将达2万亿美元,超过当前六大科技巨头总和。当OpenAI将250GW算力(相当于全球现有数据中心算力总和数倍)设为2033年目标时,此次10GW合作仅是序章。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version