ITBear旗下自媒体矩阵:

千寻智能Spirit v1.5开源即登顶:国产具身智能冲进全球第一梯队

   时间:2026-01-12 23:42:54 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在全球具身智能领域,一场激烈的竞争正持续升温。近日,千寻智能自主研发的具身大模型Spirit v1.5,在国际权威评测中脱颖而出,成功登顶全球具身智能模型评测平台RoboChallenge综合榜单,这一成绩标志着国产具身智能技术取得了重大突破,正式跻身全球第一梯队。

RoboChallenge由Dexmal原力灵机与全球知名机构Hugging Face联合发起,是全球首个专为具身智能机器人打造的大规模真机评测平台。该平台通过30项贴近真实场景的任务,全面检验机器人在陌生环境中的泛化能力,任务涵盖摆放薯条、寻找特定颜色物体、贴胶带等日常技能操作。在此次评测中,Spirit v1.5以综合得分66.09分、成功率50.33%的优异成绩,超越了此前长期霸榜的美国Physical Intelligence公司发布的Pi0.5模型,成为唯一一个成功率超过50%的模型。

在具体任务实测中,Spirit v1.5展现出了显著优势。在贴胶布任务中,它能够迅速精准定位胶布位置,并通过双手配合完成粘贴动作;而Pi0.5经过多次尝试,仍未能成功撕下胶布。在摆放物体任务中,面对被压在最下方的绿色物体,Spirit v1.5直接在堆叠物品中主动搜寻并精准拾取,避免了拾取错误颜色物品;Pi0.5则需先露出绿色物体后才能拾取。在插花任务中,Spirit v1.5通过移动关节确保花保持竖直并插入花瓶;Pi0.5却将花横放在花瓶上,未能识别瓶口。在移动物体任务中,Spirit v1.5能够精准抓取物品并放入箱子,同时根据实际场景判断抬升高度;Pi0.5则无法判断是否抓取成功,机械执行固定步骤,导致物品未能顺利放入。

Spirit v1.5的成功并非偶然,其背后是千寻智能对机器人泛化能力核心难题的深度破解。传统机器人模型在训练阶段往往对数据进行严苛预处理,虽降低了模仿难度,却大幅限制了泛化能力。千寻智能则采用开放式、目标驱动的数据采集方式,让操作员以特定目标为前提即兴发挥,任务规划和执行顺序完全随机。这种数据采集方式构建的数据集具有高度多样性和强可扩展性。

在多样性方面,数据集包含海量物体交互、轨迹和环境转换数据,涵盖拾取、放置、打开容器、打扫房间等多种操作,使机器人通过学习整套技能及执行顺序,获得更具通用性的知识与能力。在可扩展性方面,该数据集无需为每个场景精心设计任务指导,即可在不增加管理成本的前提下高效扩展采集规模。千寻智能内部实测显示,采用这种方法人均有效采集时长增加200%,对算法专家的干预需求削减60%。

为验证这种数据集采集范式的有效性,千寻智能建立了两组模型进行对比。结果显示,在全新未显式出现在预训练集中的任务上微调时,多样化模型达到相同性能所需的迭代次数比基线模型少40%。同时,模型迁移效率与多样化数据量呈显著正相关,随着数据集规模增长,模型在新任务中的验证误差不断下降,表明模型具备从现实世界丰富内在多样性中自主学习的能力。

此次Spirit v1.5的登顶,不仅证明了国产具身智能模型已达到世界级水准,更标志着中国具身智能产业在全球舞台上的崛起。在具身智能走向行业落地的关键阶段,这一成果将为千寻智能吸引全球顶尖技术人才,提升行业技术影响力,推动与产业链上下游生态合作的深化,为技术迭代和机器人产品化落地奠定基础。同时,也为国内具身智能赛道的技术演进提供了可参考的实践范式,助力产业从技术突破向规模化落地加速迈进。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version