ITBear旗下自媒体矩阵:

DeepSeek V3.2 双模型发布:线性复杂度长文本 + 无惩罚深度思考,开源阵营再冲第一梯队

   时间:2025-12-03 09:50:49 来源:CHINAZ编辑:快讯 IP:北京 发表评论无障碍通道
 

DeepSeek 发布 V3.2(标准版)与 V3.2-Speciale(深度思考版),官方评测显示:

- V3.2在128k 上下文场景下与 GPT-5互有胜负

- V3.2-Speciale 在 MMLU、Humaneval 等基准中与 Gemini3Pro 打平,IMO2025盲测获金牌分数线83.3%

转正稀疏注意力(DSA)是核心升级:通过“目录”式路由token,将长文本计算复杂度从O(n²)降至O(n),显存占用下降40%,推理速度提升2.2倍,首次在开源模型实现百万token单卡推理。

后训练环节,团队把>10%整群算力投入强化学习,采用组对强化学习(GRPO)+多数投票,让模型在代码、数学与工具调用任务上逼近闭源对手。V3.2-Speciale取消“思考长度惩罚”,鼓励更长链式推理,平均输出token较Gemini3Pro高32%,但准确率提升4.8个百分点。

模型已上线GitHub与Hugging Face,权重采用Apache2.0协议,允许商业化。DeepSeek表示,下一步将开源长文本DSA内核与RL训练框架,继续把“闭源优势”转化为社区基础设施。行业评论称,若后续版本保持迭代节奏,开源阵营有望在2026年前实现“长文本+推理”双重领先。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version