国内AI领域迎来重大突破,DeepSeek、智谱和MiniMax三大厂商在短时间内相继推出新模型,引发技术社区和行业的高度关注。这场“模型发布潮”不仅展现了国产AI的创新能力,也为算力紧缺、同质化竞争的市场环境注入了新的活力。
DeepSeek此次推出的新模型以百万级上下文处理能力为核心亮点。尽管官方尚未公布详细技术文档,但社区推测该模型可能为DeepSeek-V4-Lite版本,参数规模约200B,未采用与北大联合研发的Engram条件记忆机制。其最大突破在于支持100万token的超长上下文窗口,远超国内主流大模型32K-128K的限制。在“大海捞针”测试中,该模型在100万token长度下仍保持60%以上的准确率,20万token内准确率曲线近乎水平,优于同期测试的Gemini系列模型。实际测试中,模型能准确定位57万字节文档中的细节信息,展现出可靠的细粒度信息检索能力。不过,在“鹈鹕骑自行车”测试中,模型生成的矢量图形出现结构混乱,表明其在几何坐标、空间关系的代码生成任务上存在局限。这一结果与其纯文本模型定位一致,研发重心聚焦于长文本处理而非跨模态能力。
智谱的GLM-5则以智能体工程化为技术叙事核心,标志着其能力从代码生成向复杂系统性工程任务迁移。该模型在Artificial Analysis评测榜单中表现亮眼:智能程度全球第4,编程能力全球第6,代理能力全球第3,与Gemini、GPT等顶级闭源模型差距微小。GLM-5参数规模达744B,激活参数40B,预训练数据增至28.5T,首次集成DeepSeek的稀疏注意力机制(DSA)并引入自研Slime异步强化学习框架。其可靠性指标显著提升,幻觉率从前代90%压缩至34%,打破Claude 4.5 Sonnet的纪录。在编程和代理能力测试中,GLM-5前端构建任务成功率达98%,后端重构成功率提升超20%,模拟经营测试中运营自动售货机1年盈利4432美元。尽管性能强大,智谱仍面临算力紧缺的困境:GLM Coding Plan价格上调30%以上,取消首购优惠并新增周额度限制,商用API仅对MAX套餐用户开放,Pro套餐用户需等待2-3日,Lite套餐用户期限未定。GLM-5的API输出价格甚至达到DeepSeek-V3.2的6倍,反映出技术迭代与基础设施供给能力的失衡。
MiniMax则以轻量化架构切入编程赛道,推出仅10B激活参数的MiniMax-M2.5模型。该模型支持100 TPS高吞吐推理,速度超越国际顶尖模型,显存占用和推理能效比具备优势。在社区自发组织的代码修复能力测试中,M2.5通过率为61.5%,位列第九,虽低于GPT-5.3 Codex的73.1%和Claude Opus 4.6的65.4%,但在单位算力任务完成效率上展现出竞争力。MiniMax选择轻量级模型策略,推测是为规避大规模参数模型的部署成本压力,并通过高吞吐设计抢占企业级实时编程场景。不过,由于缺乏透明技术细节,其能力边界和差异化竞争优势仍需实际用户体验和价格策略验证。
三大厂商的新模型发布,标志着国产大模型在差异化路径上迈出重要步伐。DeepSeek深耕长文本处理,智谱推进智能体工程化,MiniMax聚焦轻量级效率,各自在算力紧缺的背景下探索适合的技术方向。这场“模型发布潮”不仅为AI爱好者提供了新的探索工具,也为行业技术演进和商业落地提供了宝贵经验。











