DeepSeek 今日宣布推出实验性模型 DeepSeek-V3.2-Exp,该版本被定位为新一代架构研发的过渡性产品。基于此前发布的 V3.1-Terminus 模型,研发团队首次引入了自主研发的 DeepSeek Sparse Attention 稀疏注意力机制,重点针对长文本场景下的训练效率与推理性能展开优化验证。
此次更新同步覆盖多平台服务,官方移动应用、网页端及小程序均已完成版本升级。技术团队特别强调,V3.2-Exp 已在多个公开评测基准中完成有效性验证,但考虑到实际使用场景的复杂性,仍需通过更大规模的测试来检验模型性能。为此,官方决定临时保留 V3.1-Terminus 的独立 API 接口,方便开发者进行对比测试。
在开发者服务层面,DeepSeek 宣布即日起下调 API 调用价格,降幅超过 50%。这一调整将显著降低企业级用户的技术接入成本,尤其利好需要处理大规模文本数据的商业应用场景。研发团队透露,价格优化得益于稀疏注意力机制带来的计算效率提升。
据技术文档披露,DeepSeek Sparse Attention 通过动态识别文本关键区域,在保持模型性能的同时减少无效计算。这种创新机制特别适用于法律文书分析、长篇内容生成等需要处理超长文本的场景。目前,研发团队正在收集用户反馈数据,为后续架构升级提供实证依据。