ITBear旗下自媒体矩阵:

蚂蚁集团发布并开源Ring-2.5-1T:混合线性架构助力模型思考与执行能力跃升

   时间:2026-02-13 14:28:00 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

蚂蚁集团近日宣布推出并开源其百灵大模型系列最新成果——基于混合线性架构的万亿参数思考模型Ring-2.5-1T。该模型通过创新架构设计,在生成效率、复杂推理和长程任务执行能力上实现突破性进展,标志着通用智能体研发迈入新阶段。

研发团队在预训练和强化学习阶段均采用大规模扩展策略,构建了1:7比例的MLA+Lightning Linear Attention混合架构。这种设计既保证了模型在深度思考时的探索空间,又通过扩展智能体环境规模强化了长程执行能力。相较于前代Ring-1T,新模型在32K以上生成长度下访存需求降低10倍,吞吐量提升3倍,特别适用于需要持续推理的复杂任务场景。

在数学能力验证方面,Ring-2.5-1T通过引入密集奖励机制(dense reward)优化思考严谨性,在国际数学奥林匹克(IMO)和全国中学生数学奥林匹克(CMO)2025年自测中分别取得35分(满分42)和105分(满分126)的优异成绩,远超金牌标准线。代码生成能力测试显示,该模型在LiveCodeBench等基准测试中达到开源模型领先水平,可无缝适配Claude Code等智能体编程框架。

长程任务执行能力提升得益于大规模异步智能体强化学习(fully-async agentic RL)训练。在Gaia2-search等智能体搜索任务中,模型展现出自主拆解复杂任务、持续优化执行路径的能力,较传统模型在任务完成率和效率上均有显著提升。测试数据显示,其长程推理吞吐量较320亿参数的KIMI K2架构提升40%,且生成长度每增加一倍,性能优势扩大15%。

架构升级方面,Ling 2.5在继承2.0版本基础上,将部分GQA层改造为Lightning Linear Attention结构,剩余层通过近似转换升级为MLA架构。这种混合设计在保持630亿激活参数规模的同时,通过优化KV Cache压缩技术和针对性适配QK Norm等特性,使模型在混合注意力场景下的表达能力提升27%。技术白皮书显示,该架构在SWE-Bench Verified软件工程基准测试中,任务解决率较前代提高19个百分点。

尽管取得显著进展,研发团队坦言模型在token使用效率和指令遵循精确度方面仍存在改进空间。特别是在处理真实场景中的模糊指令和动态任务时,长程执行稳定性有待提升。目前训练团队正持续优化模型架构,计划在下一版本中重点改进多模态指令理解和实时环境交互能力。

该模型已通过Hugging Face(https://huggingface.co/inclusionAI/Ring-2.5-1T)和魔搭社区(https://modelscope.cn/models/inclusionAI/Ring-2.5-1T)开放下载。Ling Studio(https://ling.tbox.cn/chat)与ZenMux(https://zenmux.ai/)平台将于近期上线交互体验页面和API服务,开发者可申请抢先体验。完整技术报告将在后续版本发布时同步公开,团队欢迎全球开发者提交使用反馈和优化建议。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version