ITBear旗下自媒体矩阵:

摩尔线程MTT S5000软硬协同发力 快速适配GLM-5赋能国产AI新发展

   时间:2026-02-13 01:13:35 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

国产AI领域迎来重要进展,摩尔线程与智谱联合宣布,基于摩尔线程旗舰级AI训推一体全功能GPU MTT S5000,成功完成对智谱新一代大模型GLM-5的Day-0全流程适配与验证。这一成果标志着国产全功能GPU在支持前沿大模型方面迈出关键一步,为开发者提供了高性能、低延迟的国产AI解决方案。

作为GLM系列的最新力作,GLM-5定位为全球顶尖的Coding模型,其整体性能较上一代提升20%,在Agentic Engineering(代理工程)能力上实现突破。该模型不仅能处理复杂代码,更具备系统工程与长程Agent任务处理能力,可实现从需求分析到应用部署的端到端开发。在全球权威的Artificial Analysis榜单中,GLM-5位列全球第四、开源模型第一,在SWE-bench-Verified和Terminal Bench 2.0等主流基准测试中分别取得77.8和56.2的开源模型最高分,性能超越Gemini 3 Pro。

MTT S5000是摩尔线程专为大模型训练与推理设计的高性能GPU,基于第四代MUSA架构“平湖”打造。该卡单卡AI算力达1000 TFLOPS,配备80GB显存和1.6TB/s显存带宽,支持从FP8到FP64的全精度计算。通过原生适配PyTorch、Megatron-LM等主流框架,MTT S5000可帮助用户实现“零成本”代码迁移,在构建大规模训练集群或部署高并发推理服务时,展现出与国际主流产品相当的性能与稳定性。

此次适配的成功,得益于摩尔线程在软硬协同技术上的深度优化。针对GLM-5的长序列推理需求,MTT S5000通过高计算密度架构与稀疏Attention支持,在大规模上下文处理中保持高吞吐与低延迟。MUSA软件栈的敏捷性是关键因素——其TileLang原生算子单元测试覆盖率超80%,使多数通用算子可直接复用,显著降低移植成本。在推理效率方面,摩尔线程通过SGLang-MUSA推理引擎与硬件原生FP8计算单元的协同,在保持模型精度的同时,将显存占用降低50%以上,推理吞吐量提升30%。

为解决大模型分布式推理中的通信瓶颈,MTT S5000引入独创的异步通信引擎(ACE),通过物理级“通信计算重叠”机制,释放15%被通信占用的算力。配合细粒度重计算技术,将计算开销降至原有四分之一,全面提升系统吞吐量。在超长上下文支持方面,该卡通过算子融合与框架优化,在代码生成质量与响应延迟间取得平衡,首字延迟(TTFT)降低40%,生成速度提升35%,特别适合代码库分析、智能体任务等长程开发场景。

从GLM-4.6到GLM-5,摩尔线程已形成“发布即适配”的常态化能力。这种对主流软件栈的无缝兼容与快速响应,不仅验证了MUSA软件栈的成熟度,更为国产AI生态的繁荣发展奠定基础。开发者可第一时间获取最新模型能力,加速AI应用的落地与创新。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version