人工智能领域再迎重要进展,DeepSeek团队近日推出两款全新模型——DeepSeek-V3.2与DeepSeek-V3.2-Speciale。这两款模型在性能表现上直追行业标杆GPT-5和Gemini 3.0 Pro,且采用开放权重模式,引发全球开发者社区的广泛关注。技术报告显示,新模型在数学推理、代码生成等复杂任务中展现出显著优势,同时在计算效率方面取得突破性进展。
核心架构层面,DeepSeek-V3.2延续了前代模型的多头潜在注意力机制(MLA),该技术通过压缩键值张量实现内存占用优化。研究团队在此基础上创新性地引入稀疏注意力机制(DSA),构建出由闪电索引器(Lightning Indexer)和令牌选择器组成的双层结构。闪电索引器利用压缩表示计算令牌相关性分数,令牌选择器则基于分数筛选出最具价值的上下文片段。这种设计使模型在处理长序列时,计算复杂度从平方级降至线性级,推理速度提升40%以上。
数学推理能力是本次升级的重点突破方向。研发团队专门构建了DeepSeekMath V2验证系统,该系统包含证明生成器、验证器和元验证器三个模块。证明生成器负责输出数学证明,验证器通过强化学习训练获得评分能力,元验证器则对验证器的判断进行二次校验。这种分层验证机制有效解决了传统强化学习模型"正确答案错误推理"的缺陷,在奥数基准测试中达到金牌水平。自我修正算法的引入使模型能够通过多轮迭代持续优化解答,实验显示8次迭代后准确率提升17%。
训练方法论方面,研究团队对群体相对策略优化算法(GRPO)进行系统性改进。针对数学推理任务,模型采用零KL惩罚策略,允许更激进的策略更新;在通用任务中则保留KL正则项以维持训练稳定性。异策略序列掩码技术通过过滤偏离策略的样本,使梯度更新更加精准。混合专家路由机制确保训练阶段与推理阶段的专家激活模式一致,有效解决模型漂移问题。这些优化使GRPO在保持原始框架的基础上,训练效率提升25%。
DeepSeek-V3.2-Speciale作为扩展思维变体,在强化学习阶段仅使用推理数据集进行训练。通过取消长度惩罚项,模型生成响应的平均长度增加3倍,在复杂逻辑推理任务中展现出更强的解题能力。技术报告显示,该变体在数学竞赛题上的得分率较标准版提升12%,但推理成本增加45%。这种性能与效率的权衡,为不同应用场景提供了灵活选择。
行业分析指出,DeepSeek新模型的发布标志着开放权重模型在推理能力上达到新高度。其创新的稀疏注意力架构和分层验证机制,为解决大模型计算效率与性能平衡问题提供了新思路。特别值得注意的是,研究团队同步开源了模型代码和训练日志,这种透明化做法将加速技术迭代进程。随着生态系统的逐步完善,开发者社区有望在智能助手、自动化编程等领域催生更多创新应用。












