人工智能领域再迎突破,DeepSeek团队近日发布全新OCR模型DeepSeek-OCR,该模型通过创新的光学压缩技术,在文本信息处理效率方面取得显著进展。这款参数规模仅3B的模型,通过将文本内容映射至视觉像素空间,实现了对长文本的高效压缩。
模型核心架构由DeepEncoder编码器和DeepSeek3B-MoE-A570M解码器构成。其中编码器融合了SAM-base的局部特征捕捉能力与CLIP-large的全局语义理解优势,通过16倍下采样技术,在保持97%关键信息的前提下,将文本数据压缩至原始体积的1/16。这种设计犹如古籍修复专家,既能精准识别单个字符细节,又能把握整体文档结构。
解码器采用混合专家机制(MoE),可根据输入文档特性动态激活6个专业子模块。这种架构使模型在保持3B参数规模的同时,实际运算需求降至570M,在A100显卡上可实现每日处理20万页文档的效率,相当于百名专业录入员的协同工作能力。实验数据显示,当压缩率控制在10倍以内时,模型识别准确率达97%;即便压缩率提升至20倍,仍能保持约60%的准确率。
在基准测试中,该模型展现出显著优势。使用100个视觉token即可超越GOT-OCR2.0(需256个token)的性能,运用不足800个token便优于MinerU2.0(平均需6000+token)。这种高效压缩能力使其在复杂文档处理中表现突出:简单PPT文档仅需64个token即可完整识别,学术论文处理时400个token可准确保留数学公式等专业符号,同时具备阿拉伯语、僧伽罗语等多语言识别能力。
技术团队由三位研究员共同完成,项目负责人Haoran Wei曾主导开发GOT-OCR2.0系统,该成果在GitHub获得超7800次关注。新模型延续了其在光学字符识别领域的技术积累,但将研究重心从传统视觉问答转向视觉编码器对LLM文本处理效率的提升。
实际应用场景中,该模型在金融、医疗、出版等领域展现出巨大潜力。金融机构可快速将财报转化为结构化数据,医疗行业能高效数字化历史病历,出版机构处理古籍的效率可提升数十倍。特别值得注意的是,模型通过视觉token压缩文本的技术路径,为突破大语言模型上下文长度限制提供了新思路。
研究团队指出,OCR任务作为视觉与语言的中间模态,为验证视觉-文本压缩范式提供了理想平台。该模型通过建立视觉与文本间的自然压缩-解压缩映射,不仅优化了信息表示效率,更在实用性能与理论价值间取得平衡。这种技术路径的突破,或将推动多模态大模型向更高效的信息处理方向发展。