人工智能领域迎来重要进展,DeepSeek在ChatGPT发布三周年之际,正式推出两款全新模型——DeepSeek-V3.2与DeepSeek-V3.2-Speciale。这两款模型分别针对不同场景需求设计,展现出显著的技术突破。
DeepSeek-V3.2定位为平衡型实用模型,在推理能力与输出效率之间实现优化。该模型在真实场景工具调用、通用Agent任务及日常问答中表现突出,其推理性能已达到GPT-5水平,虽略逊于Gemini-3.0-Pro,但在开源模型中处于领先地位。技术团队通过引入DSA(DeepSeek Sparse Attention)稀疏注意力机制,将计算复杂度从传统O(L²)降至O(L·k),显著提升长文本处理效率。在128k长度序列测试中,预填充阶段成本降低至0.2美元/百万token,解码阶段成本降至0.8美元/百万token。
该模型在Agent任务领域取得突破性进展。通过构建包含1827个任务环境与85000个复杂指令的训练数据集,模型展现出强大的泛化能力。在旅行规划等复杂逻辑任务中,模型能自动处理城市重复性、预算分配等约束条件。代码Agent方面,团队基于GitHub数百万issue-PR对构建了可执行环境,覆盖Python、Java等主流编程语言。评测数据显示,DeepSeek-V3.2在SWE-Verified基准测试中取得73.1%解决率,Terminal Bench 2.0准确率达46.4%,工具使用能力接近闭源模型水平。
强化学习训练成为另一技术亮点。研究团队投入超过预训练10%的计算资源进行后训练阶段优化,开发出稳定扩展的RL协议。通过无偏KL估计、离线序列掩码策略及Keep Routing操作等创新,有效解决了训练不稳定问题。专家蒸馏策略被应用于六个专业领域训练,包括数学、编程及通用逻辑推理等,最终模型通过领域数据融合实现能力跃升。
DeepSeek-V3.2-Speciale作为长思考增强版,融合了DeepSeek-Math-V2的定理证明能力。该模型在指令跟随、数学证明及逻辑验证方面表现卓越,成功斩获IMO 2025、CMO 2025等国际竞赛金牌,在ICPC世界总决赛中达到人类选手第二名水平。技术报告显示,Speciale版本在复杂数学推理任务中显著优于标准版,但因未针对日常对话优化且不支持工具调用,目前仅供研究使用,其Token消耗量较标准版增加明显。
在上下文管理机制创新方面,新模型改进了推理内容保留策略。仅当引入新用户消息时才会清除历史推理轨迹,工具调用记录与结果则持续保留。系统提示设计经过优化,能引导模型在编程竞赛等场景中自然插入工具调用指令,并通过特殊标签标记推理路径。这种设计使模型在处理多轮对话时,能更高效地利用上下文信息。
尽管取得显著进展,研究团队在技术报告中坦陈现存局限。受限于训练计算量,模型的世界知识广度仍落后于领先闭源模型,且需要生成更长轨迹才能达到同等输出质量。这些挑战被明确列为后续优化方向,但具体产品迭代计划尚未披露。此次发布标志着开源模型在复杂推理与工具集成领域迈出重要一步,为人工智能应用拓展了新的可能性边界。











