AI编程领域迎来重磅更新,知名工具Cursor正式推出2.0版本,不仅发布首款自研编码模型Composer,还对交互逻辑进行全面重构,引发开发者社区广泛关注。这款估值百亿美金的工具此前长期依赖外部模型,此次自研突破标志着其正式加入AI模型竞技场。
新发布的Composer模型以速度为核心优势,其处理效率达到同类产品的4倍,多数任务可在30秒内完成。实测数据显示,该模型在Speed测试中达到200 Tokens/秒的吞吐量,通过强化学习技术专门优化了软件工程场景,支持长上下文生成与理解。技术团队透露,模型训练过程中采用MXFP8低精度内核,结合专家并行与混合分片数据并行技术,成功将训练规模扩展至数千张NVIDIA GPU。
交互层面迎来革命性升级,2.0版本引入多智能体并行模式,单个提示下可同时运行8个智能体。该功能通过git worktrees或远程机器隔离工作空间,有效避免文件冲突。前端开发者迎来重大利好,新版直接将浏览器嵌入编辑器,用户选中页面元素即可自动关联对应代码,实测显示生成HTML页面的速度极快,部分案例中index.html文件甚至未被完整记录进录屏。
功能创新方面,语音编程模式成为亮点,用户可通过语音指令完成编码工作。代码审查功能得到增强,支持跨文件变更的集中查看,省去频繁切换文件的操作。上下文管理机制也更为智能,Agent可自动收集所需信息,无需手动附加提示词。团队同时优化了复制/粘贴功能,移除了@Definitions、@Web等冗余选项,使操作界面更加简洁。
开发者实测反馈呈现两极分化。部分测试者盛赞Composer的速度表现,认为其响应效率显著优于前代产品,尤其在前端UI生成场景中表现突出。但也有用户指出,该模型在复杂逻辑处理上仍不及GPT-5等竞品,部分极客开发者更倾向于使用CLI工具而非IDE环境。值得关注的是,新版明显降低了对外部模型的依赖,模型选择界面中Claude、GPT等选项已被移除,仅保留Grok等少数开源方案。
技术文档显示,Composer采用专家混合(MoE)架构,训练过程中模型自发掌握了复杂搜索、linter错误修复等高级技能。基础设施层面,团队基于PyTorch和Ray构建了异步强化学习系统,通过优化通信开销实现高效训练。这种技术路线既保证了模型性能,又避免了训练后量化的额外开销,为快速推理奠定基础。
市场分析认为,Cursor此次升级直指行业痛点。此前过度依赖第三方模型导致成本高企,自研模型不仅有助于控制运营支出,更能构建技术壁垒。英伟达CEO在GTC 2025大会上公开表示,该公司全体软件工程师均已采用Cursor作为编程助手,这从侧面印证了产品在工程领域的实用性。不过面对Codex、Claude Code等强劲对手,Cursor仍需在模型智能度与生态建设上持续发力。
更新日志显示,2.0版本还包含多项细节优化:终端命令调用、代码库语义搜索等工具集成度更高,模型在工具选择策略上更注重效率平衡,通过减少冗余回复提升辅助编程体验。技术团队透露,后续将开放模型训练基础设施的细节,供研究者复现其强化学习流程。
完整技术说明与更新内容可参考官方博客及变更日志: https://cursor.com/cn/blog/2-0 https://cursor.com/cn/changelog/2-0











