meta Platforms Inc.(meta.US)首席财务官苏珊·利近日在公开场合透露,公司正加速推进定制芯片的研发与应用,计划将自研芯片从现有的推荐系统领域拓展至人工智能模型训练环节。这一战略调整标志着meta在算力自主化道路上迈出关键一步,尽管其近期已与英伟达、AMD等芯片巨头达成大规模采购协议,但内部芯片研发项目仍被视为长期技术布局的核心。
作为全球最大的AI模型训练数据中心运营商之一,meta的算力需求正随着生成式AI技术的爆发呈现指数级增长。苏珊·利指出,公司部分业务场景具有高度定制化特征,通用芯片难以完全匹配内部算法需求,因此自研芯片成为优化成本与性能的关键路径。目前,meta已在其核心的社交媒体排名与推荐系统中大规模部署定制芯片,显著提升了运算效率并降低了对外部供应商的依赖。
据行业分析,meta的芯片战略分为两步走:短期通过采购多元化芯片满足即时需求,长期则以自研训练芯片为目标实现基础设施转型。尽管市场对AI训练芯片的研发难度存在质疑,但meta仍坚持将“全栈自研”作为破局关键——通过将芯片架构与自有大模型Llama深度整合,公司有望在降低硬件采购成本的同时,减少供应链波动带来的风险。
技术挑战与现实压力并存。近期有消息称,meta在研发前沿训练芯片过程中遭遇技术瓶颈,部分高性能项目进度或受影响。为平衡短期算力缺口与长期目标,公司采取了灵活策略:一方面租用谷歌TPU资源加速大模型开发,另一方面维持与英伟达的深度合作。苏珊·利强调,meta将采取“渐进式扩展”模式,先在特定定制化任务中取得突破,再逐步攻克通用大模型训练的技术难题。
从行业视角观察,meta的造芯计划反映了超大规模云厂商在AI时代的共同趋势。通过掌控芯片设计权,企业不仅能优化模型训练效率,还能在硬件能耗、数据安全等维度建立竞争优势。尽管从推理芯片跨越到训练芯片面临架构重构等巨大挑战,但meta凭借其庞大的用户场景和充足的现金流,正试图重塑互联网巨头与硬件供应商之间的权力格局。











