ITBear旗下自媒体矩阵:

小米MiMo大放异彩!7B参数模型力压OpenAI与阿里,AI竞赛再添猛将

   时间:2025-04-30 13:45:20 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

在人工智能领域的激烈竞争中,小米公司近日正式宣布加入战团,推出了一款名为MiMo的开源大模型,专注于提升推理能力。这一消息于4月30日公布,迅速引起了业界的广泛关注。

MiMo模型以仅70亿参数的规模,在数学推理和代码竞赛的测评中,展现出了惊人的实力。它不仅超越了OpenAI的闭源模型o1-mini,还超过了阿里巴巴320亿参数规模的QwQ模型。这一成就,无疑为小米在AI领域树立了新的里程碑。

小米表示,MiMo模型自诞生之初,就致力于挖掘模型的推理潜能。通过联动预训练和后训练两个阶段,MiMo在推理能力上实现了全面的提升。这一创新策略,使得MiMo能够在参数规模相对较小的情况下,发挥出巨大的效能。

当前,国内外AI领域的竞争愈发激烈。就在本周,阿里巴巴发布了Qwen 3模型,紧接着特斯拉CEO马斯克也官宣了Grok 3.5模型。面对这样的竞争态势,小米显然没有坐视不理。据报道,小米正在积极建设万卡GPU集群,并大力引进顶尖AI人才,以全面投入大模型领域的发展。

MiMo模型在数学推理(AIME 24-25)和代码竞赛(LiveCodeBench v5)的公开测评中,展现出了卓越的性能。在相同的强化学习训练数据条件下,MiMo-7B在数学和代码领域的表现,明显优于DeepSeek-R1-Distill-7B和Qwen2.5-32B等知名模型。这一成绩,无疑为MiMo模型增添了更多的光彩。

小米团队在MiMo模型的开发过程中,进行了多方面的创新。在预训练阶段,他们挖掘了大量的推理模式语料,并合成了约2000亿tokens的推理数据。通过三阶段策略逐步提升训练难度,累计训练了25万亿tokens,这一训练量在同等规模模型中处于领先地位。而在后训练阶段,小米团队提出了“测试难度驱动奖励”机制,有效解决了困难算法问题中的奖励稀疏问题。同时,他们还引入了“简单数据重采样”策略,显著提升了强化学习训练的稳定性。

除了技术创新外,小米在AI领域的全面投入战略也备受瞩目。据报道,小米正在积极搭建自己的GPU万卡级集群,以大力投入AI大模型的发展。这一计划已经实施数月之久,由小米创始人雷军亲自参与领导。小米深知,在AI硬件领域,手机是核心所在,因此在这个领域进行大力投入是势在必行的。

小米在AI人才布局方面也在加速推进。据第一财经报道,DeepSeek开源大模型DeepSeek-V2的关键开发者之一罗福莉将加入小米,或供职于小米AI实验室,领导小米大模型团队。罗福莉是MLA技术的核心开发者之一,这一技术在降低大模型使用成本方面发挥了关键作用。她的加入,无疑将为小米在AI领域的发展注入新的活力。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version