阿里巴巴旗下千问团队近日正式发布全新语言模型Qwen3-Coder-Next,这款专为编码代理和本地开发场景设计的开放权重模型,通过创新架构与训练方法在编程智能体领域展现出显著优势。该模型基于Qwen3-Next-80B-A3B-Base构建,采用混合注意力机制与专家混合(MoE)架构,在保持低推理成本的同时实现了强大的编程能力。
在训练方法上,研究团队突破传统参数扩展模式,重点强化智能体训练信号的扩展性。通过构建包含大规模可验证编程任务和可执行环境的训练体系,模型能够直接从环境反馈中学习优化。具体训练流程涵盖四个阶段:首先在代码与智能体相关数据上进行持续预训练,随后利用高质量智能体轨迹数据进行监督微调,接着针对软件工程、QA测试、Web/UX设计等领域开展专家训练,最终将多领域专家能力蒸馏整合到单一可部署模型中。这种训练范式特别强化了长程推理、工具调用和错误恢复能力,这些特性对现实编程场景至关重要。
性能评估显示,该模型在多个权威编程智能体基准测试中表现突出。在SWE-Bench系列测试中,使用SWE-Agent框架时模型在Verified版本上取得超过70%的准确率,在多语言版本和更具挑战性的Pro版本中仍保持竞争力。特别值得注意的是,尽管激活参数规模仅30亿,其性能已可媲美激活参数多10-20倍的开源模型。在TerminalBench 2.0和Aider等基准测试中,模型同样展现出优异表现。
效率分析图表揭示,Qwen3-Coder-Next在性能与资源消耗间实现了更优平衡。在SWE-Bench-Pro测试中,30亿激活参数版本的性能与参数量大数十倍的模型相当,展现出显著的成本优势。虽然全注意力架构的专有模型在绝对性能上仍占优势,但该模型在低成本智能体部署场景中已处于领先位置,特别适合资源受限环境下的编程任务处理。
技术文档显示,模型开发团队将持续优化推理决策能力,计划扩展对更多编程任务类型的支持,并建立快速迭代机制根据用户反馈持续改进。目前该模型已通过ModelScope和Hugging Face平台开源,开发者可自由获取模型权重及训练代码进行二次开发。











