百度千帆近日宣布推出全新端到端文档智能模型Qianfan-OCR,该模型采用统一的视觉语言架构,以40亿参数规模实现了文档解析、版面分析、文字识别与语义理解的一体化融合。在多项权威评测中,该模型展现出显著优势,标志着文档智能技术从多阶段流程向统一模型架构的跨越式发展。
在核心基准测试中,Qianfan-OCR表现尤为亮眼。在OmniDocBench v1.5评测中以93.12分位居端到端模型榜首,OCRBench评测成绩显著超越同规模通用视觉语言模型和专用OCR模型。在关键信息提取(KIE)领域,该模型在多个公开榜单总分上力压Google Gemini 3-Pro等国际商用模型,展现出强大的技术竞争力。
针对图表理解等复杂场景,Qianfan-OCR在ChartQA、ChartBench等6项国际权威评测中斩获5项最佳成绩。其独特的结构理解与多模态推理能力,能够精准解析包含复杂表格、混合图表的文档内容,在金融报表、科研论文等场景中具有显著应用价值。
传统OCR系统普遍采用"检测-识别-大模型"三段式架构,这种串联处理方式容易导致误差累积,且在文本分块提取过程中会破坏原始文档的空间结构与视觉上下文。例如复杂表格的行列关系、图表的坐标对应等关键信息,在传统流程中往往出现理解偏差。
Qianfan-OCR通过底层架构创新,构建了端到端的视觉语言模型。该模型直接从文档图像生成结构化输出,完整保留视觉信息与空间关系,实现从像素到语义的直接映射。这种技术路径不仅提升了处理效率,更在结构理解与推理任务中达到更高精度,有效解决了传统方案的固有缺陷。
目前,Qianfan-OCR已在百度千帆平台全面开放,同时通过HuggingFace开源模型权重。开发者与企业用户可自由调用该模型,应用于金融、医疗、教育等领域的文档智能化处理,推动行业数字化转型进程。










