OpenAI与芯片企业Cerebras联合宣布推出面向实时编程场景的GPT-5.3-Codex-Spark模型,这是双方首次公开的合作成果。该模型由Cerebras提供算力支持,已于近日以研究预览形式开放,主要服务于对交互速度要求严苛的软件开发场景。
针对传统编程模式中开发者等待时间过长、过程控制力不足的问题,Codex-Spark通过每秒处理超1000个token的推理速度,实现了近乎实时的代码反馈。OpenAI指出,当前软件开发正朝着"自主代理式编程"方向发展,机器虽能持续工作数小时甚至数天,但可能削弱开发者对项目的掌控。因此新模型特别强调"快速响应"与"可引导性",确保开发者在协作过程中始终保持主导地位。
在性能测试中,Codex-Spark在SWE-Bench Pro、Terminal-Bench 2.0等专业基准上展现出显著优势。相较于前代GPT-5.1-Codex-mini,该模型在保持回答质量的同时,任务完成效率提升明显。其核心能力包括精准的代码修改、动态计划调整以及基于代码库的上下文问答,特别适用于界面布局可视化、样式优化等需要快速迭代的开发场景。
支撑这一性能突破的是Cerebras的Wafer-Scale Engine芯片技术。该芯片配备行业领先的片上内存系统,单芯片即可支持每秒数千token的推理需求。通过多芯片集群扩展,内存容量可提升至多TB级别,为万亿参数模型的训练与部署提供硬件基础。OpenAI透露,计划在2026年将这种超高速推理能力推广至更大规模的前沿模型。
目前,Codex-Spark已通过研究预览形式向ChatGPT Pro用户开放,集成于Codex应用、命令行工具及VS Code扩展中。部分设计合作伙伴将优先获得API访问权限,后续将逐步扩大开放范围。OpenAI强调,该模型作为"高度优化的小规模模型",专为快速推理场景设计,在保持高效的同时确保开发过程的可控性。











