阿里巴巴旗下千问团队近日发布了一款名为Qwen3-Coder-Next的开放权重语言模型,该模型专为编码代理和本地开发场景设计,通过创新架构与训练方法实现了性能与效率的双重突破。相较于传统模型依赖参数规模扩张的策略,Qwen3-Coder-Next采用混合注意力机制与专家混合(MoE)架构,在保持30亿激活参数的轻量化设计下,展现出与参数量高10-20倍模型相当的编程能力。
模型训练体系突破了常规预训练框架,构建了四层递进式强化机制:首先在代码与智能体交互数据上进行持续预训练,随后通过高质量智能体轨迹数据开展监督微调,进而针对软件工程、问答系统、Web开发等垂直领域实施专家训练,最终将多领域能力蒸馏整合至统一模型。这种训练范式特别强化了长程推理、工具调用和错误恢复能力,使模型能够从环境反馈中自主学习编程逻辑。
在权威编程智能体基准测试中,该模型展现出显著优势。使用SWE-Agent框架时,在SWE-Bench Verified测试集上取得超过70%的准确率,在多语言版本和更具挑战性的Pro版本中仍保持竞争力。特别值得注意的是,在SWE-Bench-Pro测试中,其性能表现与参数量大数十倍的开源模型持平,而推理成本显著降低。TerminalBench 2.0和Aider等基准测试结果也验证了模型在终端交互和代码辅助场景中的实用性。
效率与性能的平衡是该模型的核心创新点。通过动态参数激活机制,模型在处理不同任务时仅调用必要专家模块,既保证了复杂任务的处理能力,又避免了全量参数运算的资源消耗。这种设计使其在面向边缘计算和低成本设备部署时具有显著优势,为智能体技术的普及应用开辟了新路径。
目前,Qwen3-Coder-Next已通过ModelScope和Hugging Face平台开放下载,开发社区可自由获取模型权重进行二次开发。团队透露后续将重点优化模型的自主决策能力,扩展支持更多开发工具链,并建立基于用户反馈的持续迭代机制,推动编程智能体向更复杂的任务管理场景延伸。









