谷歌近日推出全新人工智能模型Gemini 3 Flash,以显著低于市场主流产品的价格提供旗舰级性能表现。这款轻量级模型在编码能力测试中超越Claude Sonnet 4.5,在多模态理解领域全面领先同类产品,部分指标甚至超过自家高端版本Gemini 3 Pro。
在科学推理基准测试GPQA Diamond中,新模型取得90.4%的准确率,较Claude Sonnet 4.5高出7个百分点,仅落后GPT-5.2约2个百分点。多模态评估平台MMMU-Pro的测试显示,其81.2%的得分不仅超过GPT-5.2的79.5%,更将Claude Sonnet 4.5甩开十多个百分点。在Humanity's Last Exam无工具测试中,该模型以33.7%的得分领先对手近20个百分点。
编码能力测试成为最大亮点。在SWE-bench Verified评估中,新模型以78%的准确率首次超越自家Pro版本76.2%的得分,同时领先Claude Sonnet 4.5的77.2%。更引人注目的是其成本优势——输入价格仅为每百万tokens 0.5美元,输出价格3美元,分别相当于Claude的五分之一和GPT的四分之一。
实际应用场景验证了模型的强大能力。某音视频分析公司使用该模型进行深度伪造检测时,发现其处理速度比前代2.5 Pro快4倍,能够在不影响工作流的前提下实时分析复杂数据。开发者平台数据显示,新模型处理日常任务的token消耗平均减少30%,响应速度提升3倍。
用户端升级计划同步启动。全球Gemini应用用户将自动获得模型更新,免费用户可直接使用新模型的"极速模式"和"深度思考模式",专业模式则保留给3 Pro版本。搜索端的AI模式升级后,能更精准理解复杂查询意图,生成结构化回答的能力显著增强。美国用户还可选择调用3 Pro进行深度计算,图像生成模型Nano Banana Pro的开放范围同步扩大。
开发者生态迎来重大利好。新模型已在Google AI Studio、Gemini API、Android Studio等平台上线,Vertex AI企业版和全新推出的Antigravity开发平台同步支持。针对高频调用场景,Google推出Context Caching功能,可将重复token使用成本降低90%,批量处理API再降50%成本,同时提高调用配额。
产品矩阵完善成为关键布局。随着Flash版本的加入,Gemini系列形成完整产品线:Pro版本专注极限推理,Deep Think强化深度计算,Flash版本主打高性价比。数据显示,Gemini应用月活跃用户已突破6.5亿,开发者数量达1300万,API调用量同比激增300%,用户规模季度增长近45%。
行业观察人士指出,这款新模型重新定义了轻量级产品的价值标准。测试表明,关闭深度思考模式的3 Flash性能仍优于开启思考模式的2.5版本,标志着基础模型能力实现质的飞跃。当旗舰级性能以五分之一的价格提供时,AI应用开发的成本结构将发生根本性改变。










