美国亚马逊FAR联合麻省理工学院、加州大学伯克利分校、斯坦福大学及卡内基梅隆大学等顶尖科研团队,近日共同发布了一项名为OmniRetarget的突破性技术。该系统基于交互网格架构,通过保留智能体、环境地形及操作对象间的空间交互关系,可生成符合运动学规律的机器人动作轨迹。
在最新公布的演示视频中,宇树科技G1人形机器人展现了惊人的运动能力。该机器人仅依靠本体感觉反馈系统(无需视觉或激光雷达辅助),便完成了携带椅子攀爬桌面、跳跃落地后执行翻滚缓冲等复杂连续动作。研究团队特别强调,这些动作序列均通过OmniRetarget引擎自动生成,无需人工预设轨迹。
技术核心在于其独特的交互保留机制。系统通过构建三维网格模型,精确捕捉机器人肢体、接触面及操作物体的空间位置关系。在轨迹生成过程中,算法会同步优化拉普拉斯变形参数与运动学约束条件,确保生成的每个动作既符合物理规律,又能保持与环境的自然交互。经多数据集验证,该方法生成的轨迹在接触稳定性与运动可行性方面显著优于传统基线模型。
实验数据显示,基于该技术训练的本体感觉强化学习策略,仅使用5个基础奖励函数和简单领域随机化方法,便使G1机器人成功掌握了长达30秒的连续跑酷技能。研究团队特别指出,这种训练方式无需设计复杂课程,所有任务均通过共享参数实现跨场景迁移。
目前公开的演示案例涵盖多种复杂场景:机器人可自主选择翻滚、匍匐等不同方式穿越障碍,也能以8种差异化动作模式完成箱子搬运任务。研究团队已同步发布论文全文与训练数据集,代码库将于近期开源,相关技术文档可通过指定研究页面获取。