阿里巴巴千问团队近日正式发布了专为编码代理与本地开发设计的语言模型——Qwen3-Coder-Next。这款开放权重的模型基于Qwen3-Next-80B-A3B-Base架构,通过引入混合注意力机制与MoE(专家混合)架构,在降低推理成本的同时显著提升了编程与智能体能力。该模型采用大规模可执行任务合成、环境交互与强化学习等创新训练方法,突破了传统参数扩展的局限。
在训练策略上,研究团队构建了多维度训练体系:首先通过代码与智能体相关数据进行持续预训练,随后在包含高质量智能体轨迹的数据集上进行监督微调。针对软件工程、QA测试、Web/UX设计等垂直领域,团队设计了专家训练模块,最终将多领域能力蒸馏至单一可部署模型。这种训练范式特别强化了长程推理、工具调用及错误恢复能力,这些特性对现实编程场景至关重要。
基准测试数据显示,当集成SWE-Agent框架时,该模型在SWE-Bench Verified基准上取得超过70%的得分,在多语言版本及更具挑战性的SWE-Bench-Pro测试中仍保持竞争力。值得注意的是,在仅激活30亿参数的情况下,其性能已可媲美参数量高10-20倍的开源模型。在TerminalBench 2.0和Aider等智能体评测中,该模型同样展现出显著优势。
效率测试表明,Qwen3-Coder-Next在性能与资源消耗间实现了更优平衡。在SWE-Bench-Pro测试中,其3B激活参数版本的表现与参数量大10-20倍的模型相当。尽管全注意力架构的专有模型在绝对性能上仍具优势,但该模型在低成本智能体部署场景中展现出明显的效率优势,处于帕累托前沿位置。
目前,该模型已通过ModelScope和Hugging Face平台开放下载。研究团队表示,后续将重点优化模型的推理决策能力,扩展其任务支持范围,并根据用户反馈持续迭代更新。这一进展为智能编程工具的开发提供了新的技术路径,特别是在资源受限场景下的应用具有重要价值。














