阿里巴巴千问团队近日正式发布了一款名为Qwen3-Coder-Next的开放权重语言模型,该模型专为编码代理和本地开发场景设计,通过创新架构与训练方法实现了性能与效率的显著提升。与传统的参数扩展模式不同,新模型聚焦于智能体训练信号的扩展,采用混合注意力机制与MoE(专家混合)架构,在降低推理成本的同时强化了编程能力与智能体交互水平。
在训练方法上,团队构建了多阶段强化体系:首先通过持续预训练让模型吸收代码与智能体相关数据,随后利用高质量智能体轨迹数据进行监督微调,并针对软件工程、QA测试、Web/UX开发等垂直领域开展专家训练。最终通过知识蒸馏技术将专家能力整合到单一可部署模型中。这种训练策略特别强化了长程推理、工具调用及错误恢复能力,使其更适应真实开发环境的需求。
基准测试数据显示,当集成SWE-Agent框架时,该模型在SWE-Bench Verified基准上取得超过70%的准确率,在多语言版本及更具挑战性的Pro版本中仍保持竞争力。值得注意的是,尽管其激活参数规模仅为30亿,但在TerminalBench 2.0和Aider等智能体评测中,性能表现可与激活参数量高10-20倍的开源模型媲美,展现出显著的效率优势。
效率对比图表进一步证实,在SWE-Bench-Pro任务中,Qwen3-Coder-Next的3B激活参数版本已达到行业领先水平,其性能曲线处于帕累托前沿位置。虽然全注意力架构的专有模型在绝对指标上仍占优势,但新模型在低成本智能体部署场景中展现出更强的实用性,特别适合资源受限的开发环境。
该模型现已通过ModelScope和Hugging Face平台开源,开发团队表示将持续优化模型的推理决策能力,扩展其任务支持范围,并根据用户反馈进行快速迭代。此次发布标志着编程智能体领域在效率优化方向取得重要突破,为开发者提供了更具性价比的选择。











