新智元报道
编辑:好困
GPT-5.4真正的杀招终于落地!OpenAI连夜重写基建、原生收编七大沙盒,彻底封死第三方框架的活路。旧时代的聊天玩具已被抛弃,工业级Agent全面觉醒。
OpenAI不声不响,又下了一手狠棋。
就在刚刚,Agents SDK迎来一次彻底的架构重写。
原生harness、原生沙盒、Codex级的文件系统工具,外加七家头部沙盒厂商一键接入。
3月初,GPT-5.4带着原生computer use(计算机使用)高调登场时,开发者就已经吐槽过一件事。
模型能操作电脑了,可Agent跑在哪台电脑上、怎么保证跑起来不出事,还是得自己东拼西凑一套框架。
今晚这个缺口被OpenAI自己补上了。
一句话版本,OpenAI这次把Agents SDK从「聊天机器人的玩具」改造成了「生产级Agent的底座」。
harness负责控制流、模型调用、工具路由、暂停恢复;沙盒负责读写文件、装依赖、跑代码,两层彻底解耦。
更狠的是,这一刀同时砍在了LangChain、CrewAI、LangGraph这些第三方Agent框架身上。
OpenAI下场把基建层做了,留给第三方的空间,肉眼可见地在收窄。
从「聊天机器人的玩具」到生产级底座
讲这次升级之前,先得搞清楚原来的Agents SDK长啥样。
2025年3月,OpenAI第一次推出Agents SDK,主打轻量、少抽象、几行Python就能跑起来的卖点。
但这一版SDK,本质上是为聊天机器人场景做的。
一年多过去,模型在能力上的提升可谓是翻天覆地——一口气能跑几个小时、几天,甚至几周。
原来那套为聊天机器人设计的SDK,自然也就跟不上时代了。
这次的重写,主要做了两件事。
第一件,给模型配一个完整的运行框架——harness。
配置化记忆、感知沙盒的编排、类似Codex的文件系统工具、通过MCP调工具、通过skills渐进式披露信息、通过AGENTS.md自定义指令、用shell工具执行代码、用apply patch工具编辑文件,全部打包进SDK原生支持。
熟悉Claude Code和Codex的开发者看到这套清单会很眼熟。
没错,OpenAI这次是把自家Codex过去一年踩过的坑、积累的最佳实践,顺手产品化塞进了SDK。
第二件,把harness和compute彻底分离。
harness跑在你的可信基建里,管模型调用、审批、追踪、运行状态。compute是一个独立的沙盒,专门负责读写文件、跑命令、装包、吐产物。
两层之间的接口标准化,API key和敏感凭证压根儿不会进入模型生成代码实际执行的那个环境。
结果就是,沙盒里既没有API密钥,也没有任何敏感凭证。沙盒本身完全隔离,甚至可以和网络断开,没有任何对外流量。
这不是安全性能的小修小补。这是整个Agent架构的范式转移。
900页保险单100%提取
一半PR出自Agent
harness/compute分离的第一个结果,是沙盒供应商的生态图一夜铺开。
这次发布,Blaxel、Cloudflare、Daytona、E2B、Modal、Runloop、Vercel七家沙盒厂商同时被写进官方支持列表。
七家能同时接入,关键在OpenAI给了一个叫Manifest的抽象层——一份描述Agent工作区的配置清单。
要挂载哪些本地文件、从哪个云存储拉数据、产物写到哪里,全写在这份Manifest里。AWS S3、Google Cloud Storage、Azure Blob Storage、Cloudflare R2全覆盖。
最关键的是这份Manifest和具体沙盒供应商解耦。
今天用E2B写的Agent,明天想换成Modal跑,不用重写代码,改一行配置。哪家沙盒便宜、哪家离数据近,就切到哪家。
官方给了一个最小示例。让一个Agent跑进本地沙盒,挂上一个财报目录,对比FY2025和FY2024的三项财务指标,核心代码不到20行。













