DeepSeek团队近日宣布推出全新升级的DeepSeek-OCR2模型,该模型通过引入创新的DeepEncoder V2视觉编码器架构,实现了视觉处理范式的重大突破。与传统模型机械式的图像扫描方式不同,新架构模拟人类视觉认知的因果逻辑流,能够根据内容语义动态调整信息处理顺序。
核心技术创新在于视觉编码器的重构。研究团队采用轻量化Qwen2-0.5B语言模型替代传统CLIP编码器,构建了包含视觉分词器和因果查询机制的双模块架构。视觉分词器沿用SAM-base架构配合卷积层,将图像转换为视觉标记;而独特的因果流查询机制通过可学习的查询标记,配合双向与因果混合的注意力掩码设计,实现了视觉信息的语义重排。
实验数据显示,新模型在保持极高压缩率的同时显著提升处理精度。在OmniDocBench v1.5基准测试中,使用256-1120个视觉标记的DeepSeek-OCR2取得91.09%的综合得分,较前代提升3.73%。特别值得注意的是,阅读顺序编辑距离指标从0.085优化至0.057,证明模型在复杂版面处理中展现出更强的逻辑性。
与闭源强模型Gemini-3 Pro的对比测试中,DeepSeek-OCR2在约1120个视觉标记的条件下,文档解析编辑距离达到0.100,优于对手的0.115。生产环境测试显示,该模型使在线用户日志图像的OCR结果重复率从6.25%降至4.17%,PDF数据处理重复率从3.69%降至2.88%,显著提升了数据清洗效率。
研究团队强调,这项突破验证了"语言模型作为视觉编码器"的技术路径可行性。通过配备不同模态的查询嵌入,同一编码器架构未来有望同时处理文本、图像、音频等多模态数据,为构建原生多模态系统奠定基础。目前模型代码、论文及预训练权重已在GitHub和HuggingFace平台开源发布。











