谷歌在人工智能领域再推重大举措,其基于Gemini 3.1 Pro模型打造的两款新一代自主研究智能体——Deep Research和Deep Research Max正式亮相。这一动作被视为谷歌在AI研究工具赛道上应对激烈竞争的关键布局,旨在从OpenAI、Anthropic等对手手中抢占更多市场份额。
此次推出的两款智能体,在功能定位上有着明确区分。标准版Deep Research主打低延迟与低成本,适用于对速度要求较高的工作场景,能够帮助用户快速获取信息。而Deep Research Max则侧重于深度研究,通过扩展测试时计算技术,进行深入推理、搜索和迭代,最终生成详尽报告。谷歌建议将其用于异步后台工作流,例如通过定时任务在夜间运行,次日即可为分析师团队提供完整的尽职调查报告。
在技术层面,这两款智能体实现了多项突破。它们首次允许开发者通过单次API调用,将开放网络数据与企业专有信息相融合,在研究报告中直接生成图表和信息图。同时,借助Model Context Protocol(MCP)技术,智能体能够安全连接任意第三方数据源,包括私有数据库、内部文档库以及专业数据服务,且敏感信息无需离开原始环境。这一功能解决了企业采用AI时面临的一大痛点——模型获取的信息与企业决策所需信息之间存在巨大差距,此前弥合这一差距需要大量定制化工程工作。
系统还支持多模态输入,涵盖PDF、CSV、图像、音频和视频等多种格式,可作为上下文辅助研究。新增的协作式规划功能让用户在执行前能够审查、指导和优化智能体的研究计划,实时流式输出中间推理步骤则保证了调查过程的透明度,满足监管行业对高度透明的要求。
原生图表和信息图生成功能是此次更新的另一大亮点。此前版本仅能生成纯文本报告,用户需自行制作图表,这削弱了“端到端自动化”的定位。如今,新一代智能体能够在报告中原生嵌入高质量图表和信息图,以HTML或谷歌的Nano Banana格式动态渲染复杂数据集,使分析成果可直接交付给利益相关者,对于金融和咨询行业的企业用户意义重大。
从发展历程来看,谷歌在自主研究智能体领域的布局十分迅速。2024年12月,谷歌首次在Gemini App中推出Deep Research,作为C端功能,由Gemini 1.5 Pro驱动,定位为个人AI研究助手。2025年3月,使用Gemini 2.0 Flash Thinking Experimental对其进行升级并向所有人开放试用,随后又升级至Gemini 2.5 Pro Experimental,评测者对其报告偏好度超过竞争对手2比1。2025年12月,谷歌推出Interactions API,首次以编程方式提供Deep Research,由Gemini 3 Pro驱动,并同步发布开源的DeepSearchQA基准测试。而此次基于Gemini 3.1 Pro的改进,让核心推理能力实现重大飞跃,在评估模型解决新型逻辑模式的ARC - AGI - 2基准测试中,3.1 Pro得分达到77.1%,是Gemini 3 Pro的两倍多。
目前,这两款智能体已通过Gemini API的付费套餐以公开预览版形式开放,开发者可通过Interactions API进行访问。不过,普通用户暂时无法在Gemini的App中体验这些新功能,即便付费订阅也不行,这一情况引发部分用户不满。













