谷歌在人工智能领域的竞争步伐持续加速,继推出旗舰模型Gemini 3 Pro仅一个月后,再度发布Gemini 3家族新成员——主打高效低成本的Flash模型。这款新模型不仅在发布当日即成为Gemini应用和谷歌搜索AI模式的默认驱动,更凭借其性能优势与成本效率,为全球数百万用户带来更普惠的AI体验,标志着谷歌在AI分发渠道的领先地位正转化为实质性市场竞争力。
根据谷歌DeepMind产品管理高级总监Tulsee Doshi的介绍,Gemini 3 Flash被定位为“工作马”型模型,在保持接近Gemini 3 Pro推理能力的同时,运行速度达到前代2.5 Pro的三倍,成本却降至3 Pro的四分之一。这种性能与效率的平衡,使其在需要大规模处理任务的场景中展现出显著优势。例如,在评估代理编程能力的SWE-bench Verified基准测试中,Flash以78%的解决率超越同门3 Pro(76.2%),仅略低于OpenAI最新发布的GPT-5.2(80%)。
多维度测试数据进一步印证了Flash的竞争力。在跨领域知识测试Humanity's Last Exam中,其33.7%的得分虽低于3 Pro的37.5%,但远超2.5 Flash的11%;多模态推理基准MMMU-Pro中,Flash以81.2%的得分领先所有竞争对手;而在博士级知识测试GPQA Diamond上,其90.4%的表现也仅次於GPT-5.2和3 Pro。这些数据表明,Flash在保持成本优势的同时,核心能力已接近行业顶尖水平。
成本效率是Flash的另一大亮点。其定价为每百万输入token 0.50美元、输出token 3.00美元,虽略高于2.5 Flash,但谷歌强调,新一代模型在处理需要深度思考的任务时,平均token消耗量比2.5 Pro减少30%,配合标准上下文缓存功能,可在重复使用场景中实现最高90%的成本削减。对于企业用户而言,这意味着以不到3 Pro四分之一的成本,即可支持AI代理工作流,同时获得更高的速率限制。
谷歌的全球分发策略为Flash的推广铺平了道路。即日起,所有Gemini应用用户均可免费使用Flash模型,开发者可通过Google AI Studio、Vertex AI等平台获取预览版本,企业客户则能通过Gemini Enterprise服务接入。在搜索场景中,Flash已成为美国以外地区用户的默认模型,美国用户仍可切换至3 Pro进行复杂任务处理。这种分层策略既保证了基础服务的普惠性,又为高端需求保留了升级空间。
企业客户的早期反馈验证了Flash的商业价值。软件开发公司JetBrains评估发现,Flash在编程辅助任务中提供了接近3 Pro的质量,同时推理延迟和成本显著降低;全球最大对冲基金桥水则指出,该模型是首个能以所需速度和规模处理非结构化多模态数据的解决方案,其“Pro级深度”与工作效率的平衡令人印象深刻。Salesforce、Workday等科技巨头也已将其纳入业务转型工具链,用于优化客户服务、数据分析等核心流程。
这场由谷歌与OpenAI主导的AI竞赛正重塑行业格局。自Gemini 3系列发布以来,谷歌API每日处理的token数量已突破1万亿,显示出其分发渠道的强大渗透力。尽管OpenAI凭借先发优势在移动端会话市场占据90%份额,但谷歌在搜索和核心应用中的生态整合能力,为其提供了独特的竞争壁垒。随着双方进入“月更”式的产品迭代周期,AI技术的普及速度与商业化路径正成为决定胜负的关键因素。











