DeepSeek 发布 V3.2(标准版)与 V3.2-Speciale(深度思考版),官方评测显示:
- V3.2在128k 上下文场景下与 GPT-5互有胜负
- V3.2-Speciale 在 MMLU、Humaneval 等基准中与 Gemini3Pro 打平,IMO2025盲测获金牌分数线83.3%
转正稀疏注意力(DSA)是核心升级:通过“目录”式路由token,将长文本计算复杂度从O(n²)降至O(n),显存占用下降40%,推理速度提升2.2倍,首次在开源模型实现百万token单卡推理。
后训练环节,团队把>10%整群算力投入强化学习,采用组对强化学习(GRPO)+多数投票,让模型在代码、数学与工具调用任务上逼近闭源对手。V3.2-Speciale取消“思考长度惩罚”,鼓励更长链式推理,平均输出token较Gemini3Pro高32%,但准确率提升4.8个百分点。
模型已上线GitHub与Hugging Face,权重采用Apache2.0协议,允许商业化。DeepSeek表示,下一步将开源长文本DSA内核与RL训练框架,继续把“闭源优势”转化为社区基础设施。行业评论称,若后续版本保持迭代节奏,开源阵营有望在2026年前实现“长文本+推理”双重领先。











