近日,国产大模型与芯片领域的协同发展迎来重要进展。智谱AI宣布其最新开源大模型GLM-5完成与国内多家主流芯片平台的深度适配,包括华为昇腾、摩尔线程、寒武纪、昆仑芯、沐曦、燧原及海光信息等企业均实现从硬件底层到推理框架的全面优化。这一突破标志着国产算力生态在人工智能领域形成关键技术闭环,为大规模商业化应用奠定基础。
在硬件适配层面,多家企业展现出技术突破。海光信息通过自研DTK软件栈,重点优化底层算子与硬件加速模块,使GLM-5在其DCU芯片上实现吞吐量提升40%的同时,推理延迟降低35%。摩尔线程则基于MUSA架构的MTT S5000全功能GPU,通过SGLang推理框架完成全链路打通,首次释放原生FP8加速能力,在保持模型精度的前提下减少显存占用达50%。该芯片单卡AI算力达1000 TFLOPS,配备80GB显存及1.6TB/s带宽,支持从FP8到FP64的全精度计算。
技术架构层面,GLM-5实现多项创新。模型参数规模从3550亿扩展至7440亿(激活参数400亿),预训练数据量增长至28.5TB,显著提升复杂任务处理能力。其独创的"Slime"异步强化学习框架突破传统模型规模限制,通过异步智能体持续从长程交互中学习。引入的DeepSeek Sparse Attention稀疏注意力机制,在维持长文本处理效果的同时,将部署成本降低60%,Token使用效率提升25%。
在专业领域表现上,GLM-5的编程与多智能体协作能力达到开源模型新高度。实测显示,其在真实编程场景中的体验已接近Claude Opus 4.5水平,特别擅长处理分布式系统工程和长周期智能体任务。这种能力突破源于模型架构的全面升级,包括更高效的注意力机制、增强的代码理解模块以及优化的推理引擎。
值得关注的是,此次技术突破并非孤立事件。一个月前,智谱发布的图像生成模型GLM-Image已采用"自回归+扩散解码器"混合架构,成为首个开源工业级离散自回归图像生成模型。华为昇腾团队当时透露,其NPU与MindSpore框架为该模型训练提供全流程支撑,通过动态图优化、算子融合等技术,使训练效率提升3倍。
行业观察人士指出,国产AI生态正形成"模型-芯片-框架"协同创新的良性循环。GLM-5与主流国产芯片的深度适配,不仅验证了技术路线的可行性,更为金融、医疗、制造等关键领域的自主可控应用提供了解决方案。随着更多企业加入生态共建,国产AI基础设施的竞争力有望持续增强。










