ITBear旗下自媒体矩阵:

OpenAI与Cerebras联手推Codex-Spark模型 实时编程实现超千Tokens秒级响应

   时间:2026-02-13 10:42:18 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

OpenAI与芯片企业Cerebras联合宣布推出面向实时编程场景的GPT-5.3-Codex-Spark模型,这是双方首次公开的合作成果。该模型由Cerebras提供算力支持,已于近日以研究预览形式开放,主要服务于对交互速度要求严苛的软件开发场景。

针对传统编程模式中开发者等待时间过长、过程控制力不足的问题,Codex-Spark通过每秒处理超1000个token的推理速度,实现了近乎实时的代码反馈。OpenAI指出,当前软件开发正朝着"自主代理式编程"方向发展,机器虽能持续工作数小时甚至数天,但可能削弱开发者对项目的掌控。因此新模型特别强调"快速响应"与"可引导性",确保开发者在协作过程中始终保持主导地位。

在性能测试中,Codex-Spark在SWE-Bench Pro、Terminal-Bench 2.0等专业基准上展现出显著优势。相较于前代GPT-5.1-Codex-mini,该模型在保持回答质量的同时,任务完成效率提升明显。其核心能力包括精准的代码修改、动态计划调整以及基于代码库的上下文问答,特别适用于界面布局可视化、样式优化等需要快速迭代的开发场景。

支撑这一性能突破的是Cerebras的Wafer-Scale Engine芯片技术。该芯片配备行业领先的片上内存系统,单芯片即可支持每秒数千token的推理需求。通过多芯片集群扩展,内存容量可提升至多TB级别,为万亿参数模型的训练与部署提供硬件基础。OpenAI透露,计划在2026年将这种超高速推理能力推广至更大规模的前沿模型。

目前,Codex-Spark已通过研究预览形式向ChatGPT Pro用户开放,集成于Codex应用、命令行工具及VS Code扩展中。部分设计合作伙伴将优先获得API访问权限,后续将逐步扩大开放范围。OpenAI强调,该模型作为"高度优化的小规模模型",专为快速推理场景设计,在保持高效的同时确保开发过程的可控性。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version