ITBear旗下自媒体矩阵:

DeepSeek开源3B新模型DeepSeek-OCR:光学压缩破局长文本困境,小模型释放大能量

   时间:2025-10-20 20:14:10 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

近日,人工智能领域迎来一项突破性进展——DeepSeek团队正式开源其3B参数规模的OCR模型DeepSeek-OCR。这款模型通过创新性的"光学压缩"技术,在保持高识别精度的同时,将文本处理所需的计算资源大幅降低,为长文本处理开辟了全新路径。

传统大语言模型在处理长文本时面临计算复杂度呈平方级增长的困境,序列长度每增加一倍,算力消耗便增长四倍。DeepSeek团队独辟蹊径,提出将文本信息转化为视觉模态进行处理的方案。通过光学压缩技术,模型能够将1000个文本Token的内容压缩为100个视觉Token,在保持97%以上OCR准确率的前提下,实现10倍压缩率。即便将压缩率提升至20倍,准确率仍能维持在60%左右。

在基准测试中,该模型展现出惊人效率:仅需100个视觉Token即可超越GOT-OCR2.0(每页256个Token)的性能;使用不足800个视觉Token时,其表现已优于MinerU2.0(平均每页超6000个Token)。在实际生产环境中,单块A100-40G显卡每日可生成超20万页训练数据,20个节点组成的集群每日处理量可达3300万页。

模型架构由两大核心组件构成:DeepEncoder负责图像特征提取与压缩,DeepSeek3B-MoE解码器则完成视觉Token到文本的重建。其中DeepEncoder的创新设计尤为突出,通过串联SAM-base(8000万参数)与CLIP-large(3亿参数)模型,结合16×卷积压缩器,在保证高分辨率处理能力的同时,将激活内存开销控制在合理范围。该编码器支持512×512至1280×1280的多分辨率输入,涵盖Tiny(64 Token)到Large(400 Token)四种原生模式及动态Gundam模式。

解码器采用的MoE架构实现参数效率与模型能力的平衡。64个专家模块中激活6个,配合2个共享专家,实际激活参数约5.7亿。这种设计使模型既具备30亿参数模型的表达能力,又保持5亿参数模型的推理效率。训练数据方面,团队构建了包含3000万页多语言PDF的庞大语料库,其中中英文数据达2500万页,涵盖约100种语言。

数据标注采用粗细结合的策略:粗标注数据通过fitz工具直接从PDF提取,用于基础语言识别训练;精标注数据则借助PP-DocLayout等模型生成,包含版面分析与文本识别的复合标注。针对小语种数据,团队开发"模型飞轮"机制,通过迭代标注将初始数据量扩展至60万条。300万条Word文档数据专门用于提升公式识别与表格解析能力,场景OCR数据集则包含中英文各1000万条样本。

该模型的创新不仅限于效率提升,其深度解析能力在STEM领域展现巨大潜力。通过统一提示词,模型可实现多种复杂图像的结构化提取:金融报告中的图表可转换为结构化数据,化学结构式自动转为SMILES格式,几何图形完成复制与结构化解析,自然图像生成密集描述。这种能力在化学、物理、数学等需要处理符号与图形的学科中具有重要应用价值。

研究团队提出更具前瞻性的设想——利用光学压缩模拟人类遗忘机制。通过将历史对话内容渲染为图像并逐级压缩,实现内容清晰度随时间自然衰减的效果。这种设计使近期上下文保持高分辨率,历史上下文占用更少资源,理论上可支持"无限上下文"处理。虽然该方向仍处于早期研究阶段,但已展现出突破长文本处理瓶颈的可能性。

目前,DeepSeek-OCR的完整代码、论文及预训练模型已通过GitHub与HuggingFace平台开源。项目地址:http://github.com/deepseek-ai/DeepSeek-OCR;论文链接:https://github.com/deepseek-ai/DeepSeek-OCR/blob/main/DeepSeek_OCR_paper.pdf;模型下载:https://huggingface.co/deepseek-ai/DeepSeek-OCR。这项研究为视觉语言模型与大语言模型的融合发展提供了全新思路,证明通过模态转换实现计算效率优化的可行性。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version