稀宇科技近日宣布了一项重大计划,将在未来五天内连续发布一系列重要更新。首当其冲的是开源其首个推理模型——MiniMax-M1,这一消息引起了业界的广泛关注。
MiniMax-M1被标榜为世界上首个开源的大规模混合架构推理模型,稀宇科技对其性能赞誉有加。据官方介绍,M1在面向生产力的复杂场景中表现出色,其能力在开源模型中名列前茅,甚至超越了国内的闭源模型,接近海外的最顶尖水平。同时,M1还具备业内最高的性价比,为用户提供了高效且经济的解决方案。
M1的两大技术创新是其高效训练过程的关键。稀宇科技透露,M1仅用了3周时间和512块H800 GPU就完成了强化学习训练阶段,算力租赁成本仅为53.47万美元(约合384.1万元人民币),远低于最初的预期。这一高效训练过程得益于独创的混合架构和更快的强化学习算法CISPO。
混合架构以闪电注意力机制为主,使得M1在计算长上下文输入和深度推理时具有显著优势。例如,在处理8万Token的深度推理任务时,M1仅需使用DeepSeek R1约30%的算力。CISPO算法通过裁剪重要性采样权重来提升强化学习效率,在AIME实验中表现出比包括字节近期提出的DAPO等算法更快的收敛性能。
在业内主流的17个评测集上,M1的表现同样令人瞩目。特别是在软件工程、长上下文与工具使用等面向生产力的复杂场景中,M1展现出显著优势。在SWE-bench验证基准上,MiniMax-M1-40k和MiniMax-M1-80k分别取得了55.6%和56.0%的优异成绩,虽然略逊于DeepSeek-R1-0528的57.6%,但远超其他开源权重模型。同时,M1系列在长上下文理解任务中也表现出色,全球排名第二,仅次于Gemini 2.5 Pro。
在代理工具使用场景(TAU-bench)中,MiniMax-M1-40k同样领跑所有开源权重模型,并战胜了Gemini-2.5 Pro。值得注意的是,MiniMax-M1-80k在大多数基准测试中始终优于MiniMax-M1-40k,这充分验证了扩展测试时计算资源的有效性。
稀宇科技还透露,M1的详细技术报告和完整模型权重可在官方Hugging Face和GitHub账号上访问。vLLM和Transformer两个开源项目也提供了各自的推理部署支持,稀宇科技正与SGLang合作推进更多部署支持。由于M1相对高效的训练和推理算力使用,稀宇科技在MiniMax App和Web上都保持不限量免费使用,并以业内最低的价格在官网提供API服务。
稀宇科技的这一系列更新无疑为业界带来了新的活力和机遇。随着后续更新的陆续发布,我们期待稀宇科技能够继续为用户带来更多创新和突破。