全球首个基于Model Context Protocol(MCP)架构的开源检索增强生成(RAG)框架UltraRAG2.1正式发布。这款由清华大学THUNLP实验室、东北大学NEUIR实验室、OpenBMB与AI9Stars联合研发的框架,通过YAML配置文件即可完成多阶段推理与生成任务,彻底摆脱传统代码编写的技术壁垒,为多模态智能检索系统开发开辟新路径。
在核心功能层面,UltraRAG2.1实现了原生多模态支持与跨模态检索闭环。其内置的VisRAG Pipeline可自动解析PDF文档中的文字与图表,构建跨模态索引系统。科研人员通过"问图答文"或"以文搜图"功能,能快速从技术手册、学术论文中提取关键信息。这种混合检索模式突破了传统文本检索的局限,为复杂知识场景提供高效解决方案。
知识库构建方面,框架深度集成开源文档处理工具MinerU,支持Word、PDF、Markdown等格式的智能解析。系统自动完成语义分块与结构化处理,用户无需手动清洗数据即可构建企业级私有知识库。该功能使知识管理效率提升数倍,特别适用于需要处理海量文档的企业场景。
工作流标准化是UltraRAG2.1的另一大突破。框架提供全链路可视化操作界面,兼容Elasticsearch、FAISS等检索引擎,以及Llama、Qwen、Kimi等主流生成模型。通过引入量化评估体系,开发者可从相关性、忠实度、流畅性等维度评估结果质量,精准定位系统瓶颈。这种标准化流程使RAG系统优化周期大幅缩短。
MCP架构的引入彻底改变了RAG系统的开发模式。传统硬编码方式被解耦为标准化"智能体"模块,检索、推理、生成等环节可通过YAML配置灵活组合。例如,用户可通过几行配置实现"技术文档检索→代码生成→结果校验"的三阶段工作流,这种可组合性为复杂任务处理提供了工程化范式。
该框架的开源特性正在重塑全球RAG技术生态。中文科研团队主导的技术创新,为多模态理解、知识构建与效果评估提供了轻量化解决方案。企业与研究机构可基于该框架快速落地大模型应用,推动AI技术从实验室走向真实业务场景。项目代码已通过GitHub平台开放,开发者可访问https://github.com/OpenBMB/UltraRAG获取完整资源。





