AIPress.com.cn报道
1月29日消息,MiniMax正式发布新一代AI音乐生成模型 MiniMax Music 2.5。该版本围绕“可控性”和“真实感”两项长期制约AI音乐创作的核心问题进行了系统性升级,并已同步开放API接口。
在可控性方面,Music 2.5引入了段落级精细控制机制。模型支持包括Intro、Bridge、Interlude、Build-up、Hook在内的14种音乐结构标签,创作者可在歌词或提示词中直接指定段落结构、情绪走向、编制方式及乐器类型。这一机制使AI音乐生成更接近传统编曲流程,也为复杂结构和情绪递进型作品提供了更高自由度。
Music 2.5重点优化了人声合成、风格建模与自动混音能力。官方介绍称,新模型在人声表现上增强了连续音高变化、自然颤音以及胸声与头声之间的切换效果,使演唱在连贯性和表现力上更接近真人歌手。相较以往AI音乐常见的音高跳变或机械感问题,新版本在稳定性与细节处理上有所改善。
在风格还原与混音层面,Music 2.5可根据不同音乐类型自动调整混音策略。例如,在摇滚、复古流行或爵士等风格中,模型会针对失真程度、动态范围、空间感和音色厚度进行差异化处理。MiniMax表示,该能力并非简单套用统一音效模板,而是基于风格特征进行整体声学分布调整。
同时,Music 2.5将可用乐器扩展至100种以上,强化了人声与伴奏的分离效果,以降低多乐器编排中常见的声音混浊问题。
从应用层面看,MiniMax将Music 2.5的适用场景包括影视配乐、游戏动态音频、流行音乐制作及品牌音效设计等。相较早期以“快速生成”为主的AI音乐产品,新版本更强调对专业制作需求和结构化创作流程的适配。
MiniMax表示,随着Music 2.5的发布,AI音乐在制作门槛、控制精度与输出质量之间的边界正在发生变化,部分原本依赖专业设备和长期训练的制作环节,已可通过模型能力直接完成。












