ITBear旗下自媒体矩阵:

亚马逊发布Trainium3芯片及UltraServer,性能飙升,成本大降赋能AI新发展

   时间:2025-12-03 15:56:43 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在近日举办的全球云计算领域年度盛会中,亚马逊云计算服务(AWS)正式推出新一代自研AI训练芯片Trainium3,并同步发布基于该芯片的Trainium3 UltraServer服务器。这款硬件组合通过架构革新与工艺升级,为生成式AI模型的训练与推理提供全新解决方案,标志着AWS在垂直整合计算资源领域迈出关键一步。

据技术披露,Trainium3芯片采用台积电3纳米制程工艺,单芯片集成144GB HBM3E内存,内存带宽达4.9TB/s,在FP8精度下可提供2.52 PFLOPS算力。其性能较前代产品实现四倍跃升,能效比与内存带宽同样获得近四倍优化。通过新一代Neuron网络架构,芯片间通信延迟被压缩至10微秒以内,配合NeuronSwitch-v1实现的双倍内部带宽,有效解决了分布式训练中的通信瓶颈问题。

UltraServer服务器将硬件集成度推向新高度。单台设备最多可容纳144颗Trainium3芯片,形成20.7TB HBM3E内存池与706TB/s总带宽的超级计算单元,FP8算力峰值达362 PFLOPS。实测数据显示,该系统运行GPT-OSS开源模型时,单芯片吞吐量提升300%,推理响应速度加快4倍,显著降低企业应对流量峰值的硬件投入成本。目前Amazon Bedrock服务已率先在生产环境部署该硬件。

在应用场景方面,这套硬件组合展现出显著优势。对于千亿参数级模型训练,其可将周期从数月压缩至数周;面对智能对话、视频生成等高并发推理需求,能以微秒级延迟服务百万级用户。多家合作伙伴已验证其成本效益:Decart公司借助Trainium架构将实时视频生成速度提升4倍,同时将单位推理成本削减50%;生物科技企业metagenomi则通过硬件优化将基因序列分析效率提升3.5倍。

为满足超大规模计算需求,AWS同步推出EC2 UltraCluster 3.0架构。该集群通过高速互联技术可连接数千台UltraServer,形成百万级芯片计算矩阵,较上一代规模扩大十倍。这种扩展能力使得在万亿token数据集上训练多模态模型成为可能,同时可为千万级用户提供实时推理服务,为自动驾驶、气候模拟等前沿领域提供基础设施支撑。

市场布局方面,AWS正面临双重挑战。一方面需应对谷歌TPU在AI芯片市场的持续渗透,特别是Anthropic等战略客户近期宣布将采购百万级谷歌芯片;另一方面要巩固与现有合作伙伴的关系——该生成式AI公司仍计划年底前部署超百万颗Trainium2芯片,其中近半数将运行于Project Rainier超级计算机。为保持竞争力,AWS同步披露下一代Trainium4研发进展,新芯片在FP4精度下性能将提升六倍,FP8性能提升三倍,并首次引入NVIDIA NVLink Fusion技术实现异构计算协同。

这项技术整合计划引发行业关注。通过将Trainium4与Graviton处理器、EFA网络适配器部署在统一MGX机架,AWS旨在构建兼具成本优势与性能弹性的AI基础设施。这种模块化设计既支持纯CPU计算场景,也可灵活扩展GPU与Trainium混合架构,为不同规模的AI工作负载提供定制化解决方案。随着软硬件协同优化的持续推进,AI训练与推理的成本门槛有望进一步降低。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version