AIPress.com.cn报道
OpenAI正式发布新一代代码模型GPT-5.3-Codex-Spark,并宣布该模型由Cerebras提供算力支持,现已以研究预览形式上线。这是OpenAI与Cerebras合作的首个公开成果,标志着晶圆级算力架构在主流AI编程场景中的首次规模化落地。
Codex-Spark定位于“实时协作式软件开发”。在当前Agent化编程趋势下,AI能够连续数小时甚至数天自主执行任务,但长等待时间与反馈延迟,也可能削弱开发者的参与感与控制力。Codex-Spark强调“响应速度与智能同等重要”,支持开发者在实时交互中持续注入设计判断与方向决策。
在性能层面,Codex-Spark运行于Cerebras Wafer-Scale Engine架构之上,推理速度超过每秒1000 tokens,实现近乎即时的代码反馈。在SWE-Bench Pro与Terminal-Bench 2.0等Agent工程基准测试中,该模型在完成时间显著缩短的同时,能力表现优于GPT-5.1-Codex-mini。
模型能力侧重于精准代码编辑、计划修订与上下文理解,适用于代码库问答、界面布局调整、样式优化与交互测试等高频开发任务。相比长时间自主运行的Agent模式,Codex-Spark更强调“人在回路中”的协同开发体验。
OpenAI工业计算负责人Sachin Katti表示,引入晶圆级算力为低延迟场景提供了新的平台能力,使Codex在对延迟敏感的工作流中保持高度响应性。团队将基于开发者反馈持续优化多算力体系的协同调度能力。
从硬件层面看,Cerebras的Wafer-Scale Engine具备业界最大的片上内存容量,可在单用户场景下实现数千tokens每秒的高速推理。该架构可横向扩展至数千套系统,形成多TB级高速内存池,为万亿参数级模型的训练与推理提供支持。OpenAI预计将在2026年将该超高速推理能力扩展至更大规模的前沿模型。
目前,Codex-Spark已向ChatGPT Pro用户开放,可通过Codex应用、CLI及VS Code扩展使用;API接口将逐步向部分设计合作伙伴开放。随着高性能推理基础设施的持续升级,实时AI编程正迈入更低延迟、更强可控的新阶段。(AI普瑞斯编译)











