ITBear旗下自媒体矩阵:

量化圈AI新势力崛起!至知研究院开源大模型IQuest-Coder-V1跑分超GPT-5.1

   时间:2026-01-02 17:29:40 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

国内量化私募领域近日迎来重要突破,九坤投资创始团队孵化的至知研究院正式发布开源代码大模型IQuest-Coder-V1。该系列包含7B、14B和40B三种参数规模的模型,其中40B旗舰版本在SWE-bench Verified基准测试中取得81.4%的优异成绩,超越Claude Sonnet 4.5的77.2%和GPT-5.1的76.3%,引发业界广泛关注。

与传统代码模型不同,IQuest-Coder创新性地采用Code-Flow训练范式,通过构建(R_old,P,R_new)三元组数据结构,让模型学习代码仓库的动态演化过程。研究团队特别选取项目生命周期40%至80%的成熟期代码作为训练样本,避开早期探索性代码和后期维护性修改,确保模型掌握真实的软件开发逻辑。这种训练方式使模型能够理解代码变更的意图,而不仅仅是静态代码结构。

技术报告显示,该模型在预训练阶段采用分层策略:先用通用数据和代码数据打基础,再通过高质量代码语料进行退火处理。中间训练阶段分两期进行,先在32K上下文长度下注入推理数据、Agent轨迹和代码数据的混合样本,随后扩展至128K上下文长度,加入仓库级长序列样本。这种设计使模型能够处理更复杂的代码场景。

模型架构方面,Loop变体采用循环Transformer设计,通过参数共享的Transformer块执行两次固定迭代。第二次迭代同时计算全局注意力和局部注意力,并通过学习门控机制加权混合输出。这种设计在保持参数效率的同时,显著提升了模型的有效计算深度,为资源受限场景下的部署提供了新思路。

后训练阶段分为Thinking和Instruct两条路径。Thinking路径通过强化学习优化推理能力,使模型在长程任务中展现出自主错误恢复能力;Instruct路径则通过监督微调增强指令遵循能力。测试数据显示,Thinking版本在LiveCodeBench v6上取得81.1%的成绩,在CRUXeval的Input-COT和Output-COT测试中分别达到98.5%和99.4%,显示出强大的代码生成和调试能力。

在多个基准测试中,IQuest-Coder-V1表现出色:40B-Loop-Instruct版本在BigCodeBench上获得49.9%,在BFCL V3上达到73.8%,在Mind2Web上取得62.5%,在Terminal-Bench v1.0上达到51.3%。这些成绩证明该模型在不同代码相关任务中具有广泛适用性。

研究团队承诺将开源完整训练流程和中间检查点,为代码模型研究提供重要参考。尽管SWE-bench Verified测试集规模较小且仅包含Python样本,社区对榜单优化存在一定担忧,但该模型对commit演化数据的系统性利用仍被视为重要技术突破。实际使用效果有待更多开发者实测验证,但其创新训练方法和开源承诺已为代码大模型研究开辟新方向。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version