在拉斯维加斯举办的 AWS re:Invent 2025 年度技术大会上,云计算领域迎来重要进展——亚马逊云科技(AWS)正式发布其自主研发的第三代 AI 训练芯片 Trainium3,并同步推出基于该芯片打造的 Trainium3 UltraServer 系统。与此同时,AWS 还首次披露了下一代芯片 Trainium4 的研发计划,引发行业广泛关注。
据 AWS 介绍,Trainium3 采用尖端的 3 纳米制程工艺,在 AI 模型训练和推理性能方面实现显著突破。相较于第二代产品,新系统在训练和高负载推理场景下的速度提升超过 4 倍,内存容量也增至 4 倍。每台 UltraServer 最多可容纳 144 颗 Trainium3 芯片,数千台设备可相互连接,构建出搭载最多 100 万颗芯片的超大规模集群,规模达到上一代系统的 10 倍。这一架构设计为大规模 AI 计算任务提供了强大的硬件支持。
在能效方面,AWS 强调新一代芯片和系统较前代提升了 40%。在全球数据中心耗电量持续攀升的背景下,这一改进不仅符合 AWS 降低运营成本的商业需求,也为使用其 AI 云服务的客户节省了开支。亚马逊表示,包括 Anthropic(亚马逊为其投资者)、日本大语言模型公司 Karakuri、SplashMusic 以及 Decart 在内的多家客户已率先采用第三代 Trainium 芯片及系统,并显著降低了推理成本。
关于下一代产品 Trainium4,AWS 透露其正在研发中,并承诺将带来又一次性能飞跃。值得关注的是,Trainium4 将支持英伟达的 NVLink Fusion 高速芯片互连技术,这意味着基于该芯片的系统不仅能与英伟达 GPU 协同运行、扩展整体性能,还能继续利用亚马逊自研的低成本服务器机架技术。这一技术兼容性设计为 AI 应用的迁移和扩展提供了更多可能性。
当前,英伟达的 CUDA 架构已成为主流 AI 应用的事实标准平台。通过支持 NVLink Fusion,Trainium4 有望降低迁移门槛,吸引更多原本为英伟达 GPU 优化的大型 AI 应用转向亚马逊云平台。这一战略布局不仅展现了 AWS 在硬件领域的创新能力,也体现了其在 AI 云服务市场竞争中的差异化策略。












