北京人形机器人创新中心近日宣布开源国内首个通过具身智能国家标准测试的VLA大模型XR-1,同时推出配套的数据训练工具RoboMIND 2.0和ArtVIP最新版本。这一系列技术成果旨在破解机器人从“能识别”到“会操作”的关键难题,推动具身智能从实验室走向真实应用场景。
针对传统机器人依赖预设指令、环境适应能力弱的问题,研发团队重点突破了具身小脑技术。以倒水任务为例,当杯子被中途拿走或杯口被遮挡时,XR-1模型能自主判断后续动作——或暂停等待,或拨开障碍物继续操作。这种“知行合一”的决策能力源于模型对物理世界规律的深度理解,使机器人能像人类一样处理突发状况,而非机械执行固定流程。
技术架构上,该中心构建了“具身天工”通用机器人平台与“慧思开物”智能平台两大核心体系。其中“慧思开物”已开源WoW世界模型和Pelican-VL具身大脑成果,此次补充的XR-1模型则专注于具身小脑能力,与大脑模块形成协同。配套发布的RoboMIND 2.0数据引擎和ArtVIP工具链,为模型训练提供了海量多模态数据支持,显著提升了机器人在复杂环境中的泛化能力。
在工业场景验证中,搭载相关技术的“具身天工2.0”和“天轶2.0”机器人已进入福田康明斯发动机工厂,在无人产线上自主完成物料搬运、箱体取放等任务。电力领域与中国电科院的合作中,机器人可穿越高压环境进行设备巡检;运动科学方面,与李宁实验室共同开发的测试系统能持续进行高强度跑鞋耐磨试验。最新与拜耳集团达成的协议,将拓展固体药品生产全流程的机器人应用,覆盖制造、包装、质检等环节。
技术团队透露,XR-1模型通过融合视觉、触觉、力学等多维度感知信息,构建了三维空间动态认知框架。这种多模态融合机制使机器人能理解“杯子倾斜会洒水”“遮挡物可移动”等物理因果关系,从而生成符合逻辑的操作策略。目前模型在工业场景中的任务完成率较传统方案提升47%,异常处理响应速度缩短至0.3秒以内。
随着开源社区的参与,该技术体系正在形成跨行业解决方案。开发者可基于RoboMIND 2.0快速构建特定场景数据集,通过ArtVIP工具实现模型微调。这种开放模式已吸引汽车制造、物流仓储、医疗护理等领域的企业展开联合研发,预计年内将有超过20类新型工业机器人投入实测。










