在人工智能领域,数学推理能力的突破一直是备受瞩目的焦点。近日,DeepSeek在Hugging Face平台悄然开源了一款名为DeepSeek-Math-V2的数学模型,这一动作迅速引发了行业内外的广泛关注。该模型不仅成为行业首个达到国际奥林匹克数学竞赛(IMO)金牌水平且开源的模型,更在数学推理能力上展现出了卓越的实力。
根据同步发布的技术论文,DeepSeek-Math-V2在多个基准测试中表现优异。在IMO-ProofBench基准测试中,该模型在Basic子集上的得分接近99%,远超其他同类模型。相比之下,谷歌旗下的Gemini DeepThink(IMO Gold)在该子集上的分数为89%,位列第二。不过,在难度更高的Advanced子集上,Math-V2的分数为61.9%,略低于Gemini DeepThink的65.7%。尽管如此,这一成绩依然证明了Math-V2在复杂数学推理任务中的强大能力。
论文指出,大语言模型在数学推理方面已经取得了显著进展,但当前的研究仍存在一定局限。许多模型以最终答案的正确性作为奖励机制,然而,正确的答案并不总能保证推理过程的严谨性。尤其是在定理证明等需要严格分步推导的数学任务中,最终答案奖励机制往往难以适用。为了突破这一瓶颈,DeepSeek团队提出,自我验证是扩展测试时间计算的关键,尤其是对于那些没有已知解决方案的开放问题。
基于这一理念,DeepSeek-Math-V2从结果导向转向了过程导向,专注于提升模型的定理证明能力。与依赖大量数学题答案数据的传统模型不同,Math-V2通过教会AI如何像数学家一样严谨地审查证明过程,实现了在没有人类干预的情况下持续提升解决高难度数学证明题的能力。这一创新方法不仅提高了模型的推理严谨性,也为其在数学领域的进一步应用奠定了基础。
论文还提到,Math-V2在IMO 2025和CMO 2024等国际数学竞赛中取得了金牌级成绩,并在Putnam 2024竞赛中通过扩展测试计算实现了接近满分的表现(118/120)。这些成绩充分证明了该模型在数学推理领域的领先地位。DeepSeek团队认为,尽管仍有许多挑战需要克服,但可自我验证的数学推理是一个可行的研究方向,有望推动更强大的数学AI系统的开发。
DeepSeek此次推出的Math-V2模型不仅在技术上取得了突破,也在行业内引发了热烈讨论。海外网友纷纷表示,DeepSeek的回归令人惊喜,其以显著优势击败谷歌的IMO Gold获奖模型DeepThink更是超出了预期。有网友猜测,DeepSeek可能还隐藏着更多惊喜,例如编程模型的发布。毕竟,在行业头部厂商纷纷迭代模型的背景下,DeepSeek的旗舰模型更新备受期待。
近期,AI领域竞争愈发激烈。11月,OpenAI发布了GPT-5.1,xAI紧随其后推出Grok 4.1,谷歌也发布了Gemini 3系列,引发了AI圈的广泛关注。在这样的背景下,DeepSeek的Math-V2模型无疑为行业注入了新的活力。尽管外界更关注其旗舰模型的更新动态,但Math-V2的推出已经证明了DeepSeek在数学推理领域的深厚实力和创新能力。













