DeepSeek近日正式推出两款大模型——V3.2标准版与V3.2-Speciale深度思考版,凭借多项技术创新与性能突破引发行业关注。官方测试数据显示,V3.2在128k长文本场景中与GPT-5表现相当,部分任务甚至实现超越;而定位高端的V3.2-Speciale则在MMLU知识测试、Humaneval代码生成等基准中与Gemini3Pro持平,更在IMO2025数学竞赛盲测中以83.3分达到金牌分数线,成为首个在该赛事中达标的开源模型。
核心技术层面,DeepSeek团队通过“转正稀疏注意力”(DSA)机制实现重大突破。该机制采用类似“目录”的动态路由算法,将传统注意力计算从二次复杂度O(n²)优化至线性复杂度O(n),显存占用减少40%的同时,推理速度提升2.2倍。这一改进使得单张消费级显卡即可处理百万级token的长文本,成为首个实现该能力的开源模型。技术白皮书显示,DSA架构通过动态分配计算资源,在保持核心信息处理能力的前提下,大幅降低冗余计算开销。
训练策略方面,研发团队将超过10%的集群算力专项投入强化学习阶段,创新采用“组对强化学习(GRPO)+多数投票”机制。该方案通过构建多个模型协作组进行交叉验证,显著提升代码生成、数学推理及工具调用等复杂任务的表现。测试表明,V3.2-Speciale在取消“思考长度惩罚”后,输出token数量较Gemini3Pro增加32%,但关键任务准确率反而提升4.8个百分点,展现出更强的深度推理能力。
开源生态建设成为此次发布的另一焦点。DeepSeek同步在GitHub与Hugging Face平台开放模型权重下载,采用Apache2.0协议允许商业应用。更值得关注的是,团队承诺后续将开源DSA长文本内核与强化学习训练框架,计划将闭源模型的核心优势转化为开源社区的基础设施。行业分析师指出,此举可能加速全球AI技术普惠进程,推动长文本处理与复杂推理能力在更多场景落地。
目前,两款模型已支持多模态交互与工具调用,在金融分析、科研文献处理等长文本密集型领域展现出应用潜力。部分早期测试用户反馈,V3.2-Speciale在处理超长法律文书时,既能保持上下文连贯性,又能精准提取关键条款,综合效率较前代提升近60%。随着开源生态的持续完善,这场由技术创新驱动的模型竞赛正进入新阶段。









