智谱近日正式推出其新一代旗舰大模型GLM-5,这款模型在复杂系统工程和长程Agent任务处理方面展现出卓越能力,尤其在代码生成与Agent应用领域达到开源领域顶尖水平,实际编程体验已接近国际领先模型Claude Opus 4.5。该模型的发布标志着国产大模型在技术突破与场景落地方面迈出关键一步。
作为国内首个完成GLM-5全栈适配的云服务平台,百度智能云在模型发布当日即实现底层硬件到上层服务的无缝对接。通过百度百舸AI异构计算平台与昆仑芯的深度协同,企业用户可快速完成模型部署,并借助云端算力充分释放GLM-5的性能优势。目前,开发者已能通过百度千帆平台直接调用该模型,加速业务创新与场景落地。
在技术适配层面,百度百舸团队与智谱研发团队展开联合攻关,针对GLM-5的模型架构与推理特性进行专项优化。通过底层算子重构与工具链升级,团队在模型上线前完成全链路性能调优,确保发布即达到稳定高效的运行状态。该适配方案同时支持vLLM、SGLang两大主流开源推理框架,为不同技术路线的开发者提供灵活选择。
算力优化方面,百度混合云基于昆仑芯高性能计算单元,完成GLM-5的DSA架构与MoE混合专家模型适配。通过INT8量化压缩、MTP多线程并行及双机PP流水线等创新技术,模型在昆仑芯集群上的推理吞吐量实现显著提升。这种软硬协同的优化模式,为国产大模型规模化应用提供了可复制的技术路径。
截至目前,百度百舸平台已在昆仑芯XPU上完成GLM、DeepSeek、Qwen等主流大模型的规模化部署。2025年2月,国内首个自研万卡AI集群——昆仑芯P800集群在百度智能云成功点亮,随后于4月扩展至3.2万卡规模。这些基础设施的持续升级,为国产大模型训练与推理提供了坚实的算力保障。
这场技术协同的背后,折射出国产AI生态的进化逻辑:通过芯片厂商、云服务提供商与模型研发方的深度协作,构建从底层算力到上层应用的完整闭环。百度智能云的全栈能力建设,不仅降低了企业应用大模型的技术门槛,更为AI技术与实体经济的深度融合创造了条件。随着更多生态伙伴加入,国产大模型正在形成开放共赢的创新生态。











