近日,智谱正式对外发布其最新旗舰大模型GLM-4.6,作为GLM系列的重要升级版本,该模型在综合性能上较前代GLM-4.5实现27%的显著提升,覆盖编程能力、长文本处理、逻辑推理、信息检索、内容生成及智能体应用等六大核心场景。
在权威基准测试中,GLM-4.6展现强劲实力。该模型在AIME 25、LCB v6、HLE等8项国际主流评测中,部分指标已与Claude Sonnet 4/4.5持平,稳居国内大模型性能榜首。尤其在真实编程场景测试中,通过Claude Code环境对74个复杂任务进行验证,GLM-4.6的实际表现超越Claude Sonnet 4,同时显著领先其他国产同类模型。
效率优化方面,GLM-4.6通过架构创新实现计算资源消耗的突破性降低。数据显示,其平均token处理成本较GLM-4.5下降超30%,达到行业最低水平。这一改进得益于模型对计算单元的深度优化,在保证输出质量的前提下,有效控制了算力消耗。
硬件适配领域,GLM-4.6完成与国产芯片的深度整合。该模型已成功部署于寒武纪-U(688256.SH)芯片平台,实现FP8+Int4混合量化技术的国产化落地。这项全球首创的芯片-模型协同解决方案,在维持模型精度的同时,将推理成本压缩至新低,为国产硬件运行千亿参数级大模型开辟了可行路径。
在图形处理器领域,GLM-4.6与摩尔线程新一代GPU达成深度兼容。基于vLLM推理框架,该模型可在摩尔线程全功能GPU上以原生FP8精度稳定运行,充分验证了MUSA架构在生态适配与技术支持方面的领先优势。这种软硬件协同创新模式,为国产AI技术栈的完整性提供了重要支撑。
据智谱官方透露,搭载寒武纪与摩尔线程国产芯片的GLM-4.6解决方案,即将通过MaaS平台(bigmodel.cn)向个人用户及企业客户开放。这一组合标志着国产大模型与自主芯片在训练推理环节形成完整闭环,有望推动AI技术在关键领域的自主可控发展。
技术文档显示,GLM-4.6的升级聚焦于实际场景需求。在编程能力维度,模型可处理更复杂的代码生成与调试任务;长文本处理方面,支持超过200K tokens的上下文理解;智能体应用则强化了多轮交互与任务分解能力。这些改进使模型能更好适配企业级应用场景。
开源计划方面,GLM-4.6将遵循MIT协议,陆续登陆Hugging Face与ModelScope等国际开源社区。此举旨在促进技术共享与生态共建,为全球开发者提供高性能的国产大模型选择。