OpenAI公司近日宣布推出两款专为高频、低延迟任务设计的小型模型——GPT-5.4 mini与GPT-5.4 nano。这两款模型在延续GPT-5.4核心能力的基础上,通过针对性优化显著提升了响应速度与执行效率,尤其适用于对实时性要求严苛的场景。
GPT-5.4 mini在性能上实现跨越式提升。相较于前代GPT-5 mini,其代码编写、逻辑推理、多模态理解及工具调用能力均有显著增强,运行速度提升超200%。在SWE-Bench Pro编程基准测试与OSWorld-Verified系统操作评估中,该模型的表现已接近体积更大的GPT-5.4标准版,展现出强大的小型化潜力。其低延迟特性使其成为代码开发场景的理想选择,可高效完成代码库导航、精准编辑及前端界面生成等迭代任务,同时在解析复杂用户界面截图、执行计算机操作指令等任务中表现突出。
作为体积更小、成本更优的解决方案,GPT-5.4 nano针对速度与经济性进行深度优化。该模型在继承GPT-5 nano架构优势的基础上,通过算法压缩与效率提升,成为当前最经济的OpenAI模型选择。其输入输出成本分别降至每百万Token 0.20美元与1.25美元,仅为GPT-5.4 mini的三分之一左右。开发者可将其部署于文本分类、数据提取、内容排序等基础任务,或作为代码子代理处理简单辅助逻辑,在保持高效的同时大幅降低计算开销。
目前两款模型已全面开放使用。GPT-5.4 mini通过API、Codex及ChatGPT三渠道落地,其API版本支持400k上下文窗口,输入输出成本分别为每百万Token 0.75美元与4.50美元。在Codex平台调用时仅消耗GPT-5.4额度的30%,ChatGPT用户则可通过"思考"功能直接体验。GPT-5.4 nano暂仅提供API接口,其极致的成本控制为大规模部署提供了可能。OpenAI此次发布标志着小型模型在专业场景中的应用迈入新阶段,通过精准定位高频需求,为开发者提供了更具弹性的技术选择。











