OpenAI公司近日宣布推出两款专为高频且延迟敏感任务设计的小型模型——GPT-5.4 mini与GPT-5.4 nano。这两款模型在保持高效性能的同时,显著提升了响应速度,为开发者提供了更多选择。
据官方介绍,GPT-5.4 mini在代码编写、逻辑推理、多模态理解及工具调用等方面展现出卓越能力,其运行速度较前代产品提升超过两倍。在多项基准测试中,该模型的成绩已接近体积更大的GPT-5.4模型,尤其在需要快速迭代的代码工作流中表现突出,能够高效处理精准编辑、代码库导航及前端生成等任务。GPT-5.4 mini还能迅速解析密集的电脑用户界面截图,完成各类计算机操作任务。
另一款新模型GPT-5.4 nano则是目前体积最小、成本最低的版本。作为GPT-5 nano的升级版,它专为追求速度和成本效益的任务设计,适用于文本分类、数据提取、内容排序等场景,也可作为处理简单辅助任务的代码子代理。其低延迟特性使其在需要快速响应的应用中具有独特优势。
两款模型均已正式开放使用。GPT-5.4 mini已全面接入API、Codex及ChatGPT平台。其API版本支持400k上下文窗口,输入与输出成本分别为每百万Token 0.75美元和4.50美元;在Codex中调用仅消耗GPT-5.4额度的30%;ChatGPT的Free和Go用户可通过“思考”功能体验该模型。
GPT-5.4 nano目前仅通过API提供服务,其输入与输出成本更低,分别为每百万Token 0.20美元和1.25美元。这一价格优势使其成为预算有限项目的理想选择,同时保持了较高的性能水平。
官方强调,小型模型在代码助手、系统截图解析及实时图像推理等对延迟要求极高的场景中,往往比大型模型更具优势。这两款新模型的推出,进一步丰富了OpenAI的产品线,为开发者提供了更多灵活的选择。










