蚂蚁集团旗下蚂蚁百灵团队近日宣布推出万亿参数通用语言模型Ling-1T,该模型作为Ling 2.0系列的首款旗舰产品,标志着团队在非思考型大模型领域实现重大突破。据技术文档披露,Ling-1T在保持128K超长上下文窗口支持的同时,通过创新训练架构实现了推理效率与精度的双重提升。
在基准测试中,Ling-1T展现出卓越性能。以美国数学邀请赛AIME25测试为例,该模型仅消耗平均4000+Token即达到70.42%的准确率,超越同期Gemini-2.5-Pro模型5000+Token消耗下70.10%的准确率。在代码生成、软件开发、竞赛数学等12项高难度测试中,Ling-1T均取得开源模型领域领先成绩,其中7项指标刷新行业纪录。
技术架构方面,Ling-1T延续Ling 2.0核心框架,在20万亿token的高质量推理语料库上完成预训练。团队独创的"中训练+后训练"演进式思维链(Evo-CoT)机制,通过动态调整推理路径显著提升模型思考效率。特别值得关注的是,该模型采用全程FP8混合精度训练技术,在保持万亿参数规模的同时,实现显存占用降低30%、并行训练效率提升15%的技术突破,相关部分技术已开源共享。
强化学习阶段,研究团队提出LPO(语言单元策略优化)算法,以完整语义单元替代传统词元级优化,有效解决训练过程中的语义破碎问题。配合"语法-功能-美学"三重奖励机制,模型在保证代码正确性的基础上,显著提升对视觉美学的理解能力。在前端开发基准测试ArtifactsBench中,Ling-1T以59.31分接近行业顶尖水平,与榜首模型仅相差0.97分。
据研发团队介绍,Ling-1T的训练过程融合多项技术创新:通过自适应并行策略优化计算资源分配,采用渐进式数据增强提升模型泛化能力,并构建多维度评估体系确保模型稳定性。目前开发者可通过HuggingFace平台及蚂蚁百宝箱即时体验模型功能,相关API接口已开放企业级应用测试。
同步推进的深度思考型大模型Ring-1T研发取得阶段性进展,其preview版本已于9月30日实现开源。该系列模型的持续突破,标志着蚂蚁集团在通用人工智能领域形成"高效推理+深度思考"的双轨技术布局,为金融科技、智能客服等业务场景提供更强大的技术支撑。