蚂蚁集团近日宣布,正式开源其全模态大模型Ming-Flash-Omni的2.0版本。作为Ming-Omni系列的最新迭代,该模型在视觉语言理解、语音生成控制以及图像生成与编辑等核心领域实现了显著提升,多项公开基准测试结果显示其性能已达到开源模型中的领先水平,部分指标甚至超越了Gemini 2.5 Pro。
在音频生成能力方面,Ming-Flash-Omni 2.0展现了强大的创新实力。模型支持在单一音轨中同步生成语音、环境音效和音乐,用户可通过自然语言指令灵活调整音色、语速、语调、音量、情绪以及方言等参数。官方数据显示,该模型在推理阶段可达到3.1Hz的帧率,能够高效生成长达数分钟的音频内容。
视觉能力的升级同样是此次更新的重点。通过引入更大规模的细粒度数据和难例训练策略,模型显著增强了对复杂对象和长尾类别的识别能力。图像生成与编辑功能也得到优化,支持光影调整、场景替换、人物姿态修改等操作,并在复杂或动态场景中保持了更高的稳定性。
从架构层面看,Ming-Flash-Omni 2.0基于Ling-2.0(MoE,100B-A6B)架构进行训练。官方介绍称,该版本在更大规模数据和系统化训练优化的基础上,实现了多模态理解与生成能力的统一整合,为模型性能的提升奠定了坚实基础。
近年来,多模态大模型逐渐向统一架构方向发展,但实际应用中往往面临通用性与单项能力难以兼顾的挑战。蚂蚁集团表示,Ming-Omni系列经过多代迭代,从构建统一多模态能力底座,到扩大规模与训练优化,再到2.0版本强化单项能力表现,逐步实现了综合性能的全面提升。
百灵模型负责人周俊指出,全模态技术的核心在于统一架构下的能力融合与调用效率。此次开源后,开发者可在同一框架下调用视觉、语音与生成能力,有效降低了多模型串联带来的工程复杂度,为实际应用提供了更大便利。
目前,Ming-Flash-Omni 2.0的模型权重与推理代码已在Hugging Face等开源社区发布,用户还可通过蚂蚁百灵平台Ling Studio进行在线体验,进一步探索模型的多样化应用场景。











