美国亚马逊FAR实验室联合麻省理工学院、加州大学伯克利分校、斯坦福大学及卡内基梅隆大学等顶尖科研机构,近日发布了一项突破性成果——名为OmniRetarget的交互保留数据生成引擎。该系统通过创新性的交互网格建模技术,实现了机器人运动轨迹的精准生成,为复杂场景下的人形机器人控制开辟了新路径。
研究团队公布的演示视频显示,宇树科技研发的G1人形机器人完成了一系列高难度动作:在完全依赖本体感觉反馈(无需视觉或激光雷达)的条件下,机器人自主将椅子搬运至桌边,利用椅子作为支撑物完成攀爬动作,随后从桌面跃下并通过连续翻滚缓冲落地。整个过程持续近30秒,展现了长时程动态任务中的运动控制能力。
技术核心在于OmniRetarget引擎对空间关系的精确建模。系统通过分析智能体、操作对象及环境地形之间的三维接触点,构建了动态交互网格。在轨迹生成过程中,引擎采用拉普拉斯变形算法最小化人类示范动作与机器人执行动作的几何差异,同时强制满足关节运动学约束,确保生成的每个动作都符合物理规律。
实验评估表明,该技术显著优于传统基线方法。研究团队从多个运动数据库中提取动作数据进行重新目标追踪,生成了超过9小时的高质量轨迹数据。这些数据在接触稳定性保持和运动约束满足两个维度上均达到行业领先水平,为强化学习算法提供了更优质的训练样本。
基于这些数据训练的本体感觉强化学习策略,在宇树G1机器人上实现了复杂技能的学习。训练过程仅使用5个基础奖励函数和简单的领域随机化技术,无需设计复杂的课程学习框架,机器人就掌握了包括连续翻滚、障碍攀爬、箱体跳跃在内的多种运动技能。
演示案例库进一步展示了技术的泛化能力。在搬运任务中,系统可生成8种不同风格的搬箱动作,涵盖快速搬运、稳健搬运、省力搬运等多种模式。其他典型场景还包括匍匐前进、跨越障碍、精准跳跃等,验证了引擎在不同地形和操作需求下的适应性。
研究团队指出,这种数据驱动的方法特别适用于非结构化环境中的机器人部署。通过将人类运动智慧转化为机器人可执行的轨迹,系统大幅降低了复杂场景下的编程难度,为家庭服务、灾害救援等领域的实际应用奠定了技术基础。