谷歌在大模型领域再掀波澜,正式推出Gemini 3系列中速度最快、性价比最优的Gemini 3 Flash。这款新模型不仅在性能上超越了上一代旗舰产品2.5 Pro,更在速度上实现了三倍提升,同时价格大幅降低,打破了轻量化模型“快则性能打折”的传统认知。
根据谷歌CEO桑达尔·皮查伊的介绍,Gemini 3 Flash在性能和效率上均突破了帕累托极限。在编程能力评估基准SWE-bench Verified中,该模型以78%的得分超越了自家旗舰Gemini 3 Pro和Anthropic的Claude Sonnet 4.5;在多模态理解基准MMMU-Pro上,其81.2%的得分不仅超过GPT-5.2的79.5%,更将Claude Sonnet 4.5甩开十几个百分点。这些数据表明,Gemini 3 Flash在保持轻量化优势的同时,性能已接近旗舰水平。
从成本角度看,Gemini 3 Flash展现出显著优势。其输入价格仅为0.5美元/百万Tokens,输出价格为3美元/百万Tokens,远低于Claude Sonnet 4.5的15美元和GPT-5.2的14美元。这种高性价比使其成为开发者和小团队的首选。一位独立开发者在对比测试中发现,使用Gemini 3 Flash运行Python程序仅需9秒,而OpenAI的GPT-5 Mini和国产模型DeepSeek-V3.2分别需要35秒和41秒,且效果不及Gemini 3 Flash。该开发者表示,若将原有应用从GPT-4o或Gemini 3 Pro迁移至Gemini 3 Flash,成本可降低50%-70%。
谷歌强调,Gemini 3 Flash在复杂推理、多模态处理、智能体任务和编程等核心领域保留了Gemini 3的突破性能力,同时结合了Flash级别的低延迟、高效率和低成本。在处理复杂任务时,该模型可灵活调整思考时间,平均令牌使用量比上一代2.5 Pro减少30%,从而以更高性能完成日常任务。谷歌称其为“智能体工作流程领域最出色的模型”。
自发布之日起,Gemini 3 Flash将向所有用户开放,免费用户也可通过Gemini App使用。该模型将替代2.5 Flash成为默认选项,而Gemini 3 Pro则继续作为处理高难度数学和代码问题的专业选择。此前,谷歌已推出Gemini 3 Pro和Gemini 3 Deep Think,并凭借每日处理超1万亿Tokens的API流量反超OpenAI,成为大模型领域的领先者。用户常利用这些模型进行代码模拟、复杂主题学习、交互式游戏构建和多模态内容理解。
谷歌透露,Flash系列一直是内部最受欢迎的版本,此前的Flash 2和2.5已支撑起数百万开发者构建的数十万个应用,处理了数万亿Tokens。此次推出的Gemini 3 Flash预计将进一步扩大这一优势,为开发者提供无需在速度和智能间妥协的解决方案。随着这款新模型的落地,谷歌在大模型领域的竞争力再度提升,留给竞争对手的应对时间愈发紧迫。











