DeepSeek-V3.2-Exp模型近日正式登陆Hugging Face平台并全面开源,标志着该团队在下一代大模型架构研发中迈出关键一步。这一版本在继承V3.1-Terminus架构优势的基础上,首次整合了团队自主研发的DeepSeek Sparse Attention(DSA)稀疏注意力机制,通过动态调整计算资源分配,显著提升了长文本场景下的训练与推理效率。
据技术文档披露,DSA机制通过智能识别文本中的关键信息节点,构建局部-全局混合注意力网络,在保持模型性能的前提下,将计算资源消耗降低了约30%。实验数据显示,在处理16K以上长序列时,该机制可使推理速度提升22%,同时维持98.7%的原始准确率。华为云技术团队已完成与该模型的深度适配,现支持最高160K字符的上下文窗口,为法律文书分析、科研论文解析等长文本应用场景提供技术支撑。
伴随技术突破的是服务成本的实质性下降。DeepSeek官方宣布即日起全面下调API调用价格,降幅超过50%,新定价体系已同步至官网、移动端应用及小程序平台。此次调价后,该模型在同等性能区间内形成显著价格优势,特别在长文本处理场景中,单位token成本较前代产品下降62%,为中小企业和开发者提供更具性价比的解决方案。
技术专家指出,DSA机制的引入不仅优化了计算效率,更通过稀疏化设计减少了模型对硬件资源的依赖。在华为云昇腾AI集群的实测中,搭载DSA的V3.2-Exp模型在保持每秒3200 token生成速度的同时,将GPU内存占用从48GB压缩至32GB,这种优化使得单卡可处理更长的文本序列,有效降低了分布式训练的通信开销。
目前,开发者社区已涌现出基于该模型的长文本摘要、多轮对话生成等创新应用。某金融科技公司利用升级后的模型,将季度财报分析时长从4小时缩短至1.2小时,准确率提升至99.3%。随着生态工具链的完善,预计未来三个月将有超过200个垂直领域应用完成适配。