OpenAI近日发布两款新型小型人工智能模型GPT-5.4 mini与GPT-5.4 nano,旨在以更低成本和延迟填补大模型在实时交互场景中的性能空白。这两款模型通过优化架构设计,在编程、多模态理解及工具调用等关键领域展现出接近旗舰模型的能力,同时将推理成本压缩至原有水平的三分之一以下。
作为消费端主力产品,GPT-5.4 mini在三大平台同步上线:开发者可通过API和Codex平台调用,普通用户则能在ChatGPT的"Thinking"功能中体验。该模型支持文本图像双模态输入,配备40万token的超大上下文窗口,并集成网页搜索、文件检索等七项工具调用能力。在编程基准测试SWE-bench Pro中,其54.4%的得分仅比旗舰模型低3.3个百分点,却较前代产品提升近20%。计算机操控测试OSWorld-Verified显示,该模型以72.1%的准确率逼近旗舰模型的75%,工具调用测试τ2-bench中更取得93.4%的突破性成绩。
针对开发者场景设计的GPT-5.4 nano采取差异化策略,仅通过API提供服务。这款定价最低的模型(输入每百万token 0.2美元)在编程任务中表现亮眼,GPQA Diamond通用智能测试得分达82.8%,超越前代模型的81.6%。尽管在视觉任务OSWorld-Verified中39%的得分略逊于前代,但其工具调用能力的显著提升仍获得开发者关注。OpenAI特别说明,nano的优化方向聚焦于低延迟场景,建议开发者根据任务类型选择适配模型。
成本优化成为新模型的核心竞争力。在Codex平台,GPT-5.4 mini仅消耗旗舰模型30%的配额,使简单编程任务的推理成本降至三分之一。该平台引入的子智能体架构允许主模型将低密度任务自动分配给mini模型处理,形成"旗舰决策+小型执行"的协作模式。ChatGPT的分级调用机制则进一步体现成本管控:免费用户可手动启用mini模型,付费用户在触及旗舰模型速率上限后,系统将自动切换至mini保障服务连续性。
技术文档显示,两款模型均采用分层推理架构。以编程助手Codex为例,GPT-5.4负责整体规划与结果校验,而mini模型组成的子智能体群并行处理代码检索、文档分析等细分任务。这种设计使系统在保持智能水平的同时,将单位任务的推理成本降低65%。OpenAI工程师指出,随着小型模型性能提升,开发者无需依赖单一大型模型,转而构建多模型协作系统已成为新的技术趋势。
市场分析认为,新模型的推出将重塑AI应用开发格局。在实时图像理解、高并发客服等对延迟敏感的场景中,开发者可通过混合部署不同量级模型实现性能与成本的平衡。特别是GPT-5.4 nano的极致轻量化设计,为边缘计算设备部署AI能力提供了可能。目前已有金融科技公司测试将nano模型用于实时交易数据分析,初步结果显示其推理速度较前代提升3倍,而准确率维持同等水平。











