蚂蚁集团近日宣布开源全球首个基于混合线性架构的万亿参数思考模型Ring-2.5-1T,该模型在长文本生成、数学推理及智能体任务执行等核心领域实现开源技术突破,为复杂任务处理提供高性能解决方案。测试数据显示,在32K以上长文本生成场景中,模型访存规模较前代降低超10倍,生成吞吐量提升3倍以上,有效解决了长输出场景下的计算效率瓶颈。
在深度推理能力验证方面,Ring-2.5-1T在国际数学奥林匹克竞赛(IMO 2025)和中国数学奥林匹克(CMO 2025)自测中分别取得35分和105分的金牌级成绩。技术团队通过优化注意力机制,使模型在数学竞赛推理基准IMOAnswerBench、HMMT-25及代码生成基准LiveCodeBench-v6中超越DeepSeek-v3.2-Thinking、GPT-5.2-thinking-high等主流模型,展现出跨任务泛化能力。特别是在需要多步规划的智能体任务中,模型可无缝适配Claude Code框架及OpenClaw个人AI助理,支持工具调用与复杂逻辑链执行。
架构创新方面,Ring-2.5-1T基于升级后的Ling 2.5混合线性注意力架构,将激活参数规模从510亿提升至630亿。通过动态权重分配技术,模型在保持1万亿总参数量的同时,推理效率较前代显著提升。对比320亿激活参数的KIMI K2架构,新模型在长序列任务中的吞吐优势随文本长度增加持续扩大,在万字级生成场景中效率差距可达数倍。
该模型的工程化落地能力同样突出。针对AI应用从短对话向长文档处理、跨文件代码理解等场景的迁移趋势,技术团队通过分布式训练优化与硬件协同设计,使Ring-2.5-1T在保持高性能的同时降低计算资源消耗。目前模型权重与推理代码已在Hugging Face(https://huggingface.co/inclusionAI/Ring-2.5-1T-FP8)和ModelScope(https://modelscope.cn/models/inclusionAI/Ring-2.5-1T-FP8)平台开放下载,官方交互体验页与API服务将于近期上线。
行业分析师指出,Ring-2.5-1T的开源标志着智能体基础模型进入万亿参数时代,其混合线性架构设计为解决长文本推理的"内存墙"问题提供了新思路。随着模型在金融、科研、软件开发等领域的逐步应用,预计将推动AI技术向更复杂的决策支持场景渗透。









