一款名为IQuest-Coder-V1的中国代码生成模型系列近日引发全球科技界关注。该模型在SWE-Bench Verified榜单中取得突破性成绩,其40B参数版本以81.4%的准确率超越外界推测参数规模达千亿至万亿级的Claude Opus-4.5和GPT-5.2,成为当前代码生成领域最受瞩目的新星。
这款由量化私募机构九坤投资旗下至知创新研究院开发的模型,采用独特的"代码流多阶段训练"策略。与传统模型依赖静态代码片段不同,其训练数据通过(R_old, Patch, R_new)三元组结构,完整捕捉代码从稳定状态到变更过程再到最终形态的动态演变。这种设计使模型能够理解代码修改前后的差异、提交历史中的逻辑变化,以及真实工程中的试错修正痕迹。
模型架构设计凸显工程实用性,原生支持128K上下文长度,词表规模达76800个token,更贴近真实开发环境中的标识符组合。其分组查询注意力机制(GQA)通过减少KV头数量降低显存占用,循环变体采用共享参数的Transformer设计,在保持推理稳定性的前提下,用重复计算换取更高参数利用率。实验数据显示,40B参数的Loop版本在仅增加5%训练成本的情况下,性能达到数百亿参数MoE模型水平。
在功能演示中,该模型展现出强大代码生成能力。当要求构建太阳系模拟网页时,生成的代码不仅支持多视角切换、暂停放大等基础功能,还能通过点击行星显示名称和简介。其他案例包括粒子文本动画、实时像素沙盒游戏、复古太空射击游戏等复杂项目,均能生成完整可运行的代码,且在交互设计、视觉效果和物理模拟等方面达到专业水准。
模型系列提供7B、14B和40B三种参数规模,每个规模均包含Instruct和Thinking两个版本。Instruct版本侧重指令跟随,适合工程应用;Thinking版本强化复杂推理能力,响应时间较长但能处理多步骤问题。40B版本额外提供的Loop变体,在保持计算成本竞争力的同时,通过架构创新显著提升参数效率。
在多个权威基准测试中,IQuest-Coder-V1表现优异:SWE-Bench Verified得分81.4%、BigCodeBench达49.9%、LiveCodeBench v6取得81.1%。更引人注目的是,该模型在八个代码相关榜单中均位居榜首,展现出全面的技术优势。不过研发团队特别说明,模型生成代码需在沙盒环境中验证,暂不支持直接执行。
部署方案显示,基础版本和Loop版本均支持单卡H20推理,Int4量化版本可在消费级3090/4090 GPU上运行。这种轻量化设计降低了技术门槛,使更多开发者能够体验前沿AI代码生成能力。GitHub社区已有开发者尝试将模型应用于实际项目,反馈显示其在代码补全、错误修复和架构设计等场景表现突出。
九坤投资作为中国量化私募领域的头部机构,此次跨界AI领域引发行业震动。公司2012年成立于北京,管理规模数百亿元,投研团队超百人,其中博士占比超60%,核心成员多来自清华、北大、斯坦福等顶尖高校。公司早在2025年就推出通用推理模型URM,在ARC-AGI测试中取得53.8%正确率,多次尝试成功率超85%,展现出在AI基础研究领域的深厚积累。
研发团队核心成员背景多元,既有来自Qwen团队的资深研究员,也有曾在华为、商汤科技担任技术骨干的专家。论文核心作者与《Scaling Laws for Code》等重要研究成果作者高度重合,显示该团队在代码生成领域的持续深耕。这种学术与工业界的深度融合,为模型突破提供了关键支撑。
随着模型开源,X、Reddit等平台涌现大量讨论。开发者惊叹于其生成的复杂交互效果,质疑者则关注训练数据构成和评测标准。面对争议,研发团队公开了详细训练策略和架构设计,并承诺将持续优化模型性能。这种开放态度获得社区认可,GitHub项目上线首周即收获数千星标,成为当前最活跃的代码生成开源项目之一。











