ITBear旗下自媒体矩阵:

Anthropic扩充百万颗Google TPU用量 预计2026年达成1GW算力 推进AI研究与开发

   时间:2025-10-28 07:03:50 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

人工智能领域竞争日益激烈,各大科技企业纷纷加大算力投入以巩固技术优势。近日,人工智能技术公司Anthropic宣布了一项重大扩展计划,将大幅增加对Google Cloud Tensor Processing Unit(TPU)的使用量,旨在通过强化计算资源推动AI研究与产品创新。

根据公告,Anthropic计划将Google TPU的部署规模扩大至100万颗,这一举措被视为其提升AI模型能力的关键步骤。公司透露,此次扩展涉及数百亿美元的投资,预计到2026年将形成超过1GW电力规模的算力集群。这一规模的数据中心建设成本约500亿美元,其中芯片采购占比高达70%,凸显了算力竞争的资金密集性。

在芯片架构选择上,Anthropic延续了多元化策略。除Google TPU外,公司同时采用AWS Trainium芯片和NVIDIA GPU,形成三大技术平台的协同布局。这种灵活的技术路线使其能够根据不同应用场景优化资源配置,例如利用TPU的高效并行处理能力加速模型训练,同时通过GPU满足多样化计算需求。

与Google的深度合作可追溯至2023年。当时双方建立战略伙伴关系,Anthropic基于Google Cloud的AI基础设施训练模型,并通过Vertex AI平台和云市场向企业客户交付技术方案。此次TPU用量激增,标志着双方合作进入新阶段,特别是Google第七代Ironwood TPU的引入,将进一步提升计算效率。

值得注意的是,亚马逊作为Anthropic的主要训练伙伴和云服务供应商,其地位并未因TPU扩展而动摇。双方正在联合开发横跨美国多数据中心的超大型运算集群Project Rainier,该集群集成数十万颗AI芯片。Anthropic强调,与亚马逊的合作关系将持续深化,共同推进AI技术创新。

商业层面,Anthropic的客户基础正在快速扩张。目前公司已服务超过30万家企业,其中年营收贡献超10万美元的"大型账户"数量在一年内增长近7倍。强劲的市场需求迫使公司加快算力建设,以确保Claude模型能够持续提供行业领先的AI服务。首席财务官Krishna Rao表示,扩展后的计算资源将支撑更严格的模型测试、对齐研究以及大规模负责任部署,满足客户对关键任务AI应用的依赖。

Google Cloud CEO Thomas Kurian对合作成果给予高度评价,指出TPU在性能与成本效益方面的优势已得到充分验证。他承诺将持续优化TPU技术,扩大产品组合,以应对AI算力需求的指数级增长。这种技术迭代与商业扩张的双向驱动,正重塑人工智能产业的竞争格局。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version