近期,人工智能领域开源模型与闭源模型的竞争愈发激烈,开源模型一度面临被拉开差距的压力。不过,一家名为DeepSeek的公司凭借新发布的两款模型,为开源阵营注入强劲动力,引发行业高度关注。
此次发布的两款模型分别为DeepSeek V3.2和DeepSeek-V3.2-Speciale。其中,DeepSeek V3.2展现出与GPT-5相当的实力,而高性能版DeepSeek-V3.2-Speciale更是表现亮眼,直接超越GPT系列,与被视为闭源模型天花板的Gemini系列打成平手。不仅如此,这两款模型还在IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)等一系列权威赛事中斩获金牌,成绩斐然。
值得一提的是,这是DeepSeek今年第九次发布新模型,尽管备受期待的R2模型尚未现身,但此次发布的新模型已足够令人惊喜。人们不禁好奇,DeepSeek究竟是如何凭借更小的数据量和更少的显卡资源,打造出能与国际巨头抗衡的模型?
深入探究发现,DeepSeek为达成这一目标,在技术层面进行了诸多创新。首先,他们将稀疏注意力(DSA)技术正式应用于主力模型。稀疏注意力并非首次出现,在之前的V3.2-EXP版本中,DeepSeek仅对其进行测试,验证其对模型性能的影响,如今则将其全面融入主力模型。在日常使用大模型时,用户常遇到这样的问题:随着对话内容增多,模型回答逐渐混乱,甚至直接拒绝继续交流。这源于大模型原生注意力机制的缺陷,在该机制下,每个新生成的token都要与之前所有token进行计算,导致句子长度增加时,模型计算量呈平方级增长,例如句子长度翻倍,计算量增至四倍,长度变为三倍,计算量则变为九倍,严重影响模型处理长文本的能力。而稀疏注意力技术相当于为大模型添加了固定页数的“目录”,帮助模型筛选重点内容。此后,模型只需计算当前token与“目录”的关系,如同阅读时先看目录,再根据兴趣深入阅读相应章节,从而显著提升大模型处理长文本的能力。相关数据表明,随着句子长度增加,传统V3.1模型的推理成本不断攀升,而采用稀疏注意力的V3.2模型推理成本则基本保持稳定,有效降低了计算资源消耗。
除了优化注意力机制,DeepSeek还高度重视开源模型的后训练工作。大模型的训练过程类似于人类的学习历程,大规模预训练如同从小学到高二的知识积累阶段,无论是闭源模型还是开源模型,在此阶段都需全面学习各类知识。然而,在高考冲刺阶段,即模型的后训练阶段,闭源模型通常会投入大量资源,采用强化学习等方法进行针对性训练,以提升模型在特定任务上的表现。相比之下,开源模型在此阶段的投入相对较少,导致模型虽具备基础能力,但在解决复杂问题时表现欠佳。为弥补这一短板,DeepSeek设计了一套全新的强化学习协议,在预训练结束后,投入超过总训练算力10%的资源对模型进行强化训练,有效提升了模型应对复杂问题的能力。同时,DeepSeek还推出了擅长长时间思考的特殊版本——DeepSeek V3.2 Speciale。传统大模型因上下文长度限制,在训练过程中会对深度思考内容进行标注惩罚,思考内容过长则扣分。而DeepSeek V3.2 Speciale取消了这一限制,鼓励模型自由思考,充分发挥其潜力,最终使其能够与Gemini 3一较高下。
在智能体能力方面,DeepSeek同样不遗余力。一方面,为提升模型基础能力,DeepSeek构建虚拟环境,合成大量数据用于辅助训练。具体而言,DeepSeek-V3.2使用了24667个真实代码环境任务、50275个真实搜索任务、4417个合成通用agent场景以及5908个真实代码解释任务进行后训练。另一方面,DeepSeek优化了模型调用工具的流程。此前几代模型存在一个明显问题:将思考与调用工具过程分离,模型调用外部工具后,需重新构建推理链,导致效率低下,即使是简单查询,如询问日期,模型也需从头开始推理。为解决这一问题,DeepSeek对模型架构进行改进,在工具调用过程中,模型的思考过程得以保留,工具调用记录和结果也会像聊天记录一样保留在上下文中,仅在用户提出新问题时重置推理链,大大提高了模型使用工具的效率。
尽管DeepSeek的新模型取得显著进步,但仍存在一些不足。例如,在与Gemini 3 Pro的对比测试中,面对同一道复杂题目,Gemini 3 Pro仅需4972个Tokens即可给出答案,而DeepSeek V3.2 Speciale则需要8077个Tokens,消耗量高出近六成。不过,从成本角度看,DeepSeek具有明显优势。在该测试中,DeepSeek 8000多个Tokens仅花费0.0032美元,而Gemini 3 Pro不到5000个Tokens却消耗0.06美元,成本高出约20倍。这一对比凸显出DeepSeek在性价比方面的竞争力。
在开源模型与闭源模型差距逐渐扩大的背景下,DeepSeek凭借持续的技术创新和优化策略,不断缩小这一差距。其一系列举措,如从V2的MoE架构,到V3的多头潜在注意力(MLA),再到如今DeepSeek Math V2的自验证机制以及V3.2的稀疏注意力(DSA),都展现出其在算法研究方面的深厚实力。DeepSeek致力于在有限数据资源的基础上,挖掘更多智能潜力,为人工智能领域的发展提供了新的思路和方向。人们不禁期待,DeepSeek未来还将带来哪些惊喜,尤其是备受瞩目的R2模型何时能够亮相。











