ITBear旗下自媒体矩阵:

亚马逊“盲眼”机器人首秀:无感知下30秒跑酷搬箱,华人团队领衔创新

   时间:2025-10-06 18:00:19 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

亚马逊机器人团队FAR(Frontier AI for Robotics)近期公布了其首个人形足式机器人研究成果——OmniRetarget,这款机器人凭借“盲眼”操作引发科技圈热议。与传统依赖视觉或雷达的机器人不同,OmniRetarget在无任何外部感知设备的情况下,完成了搬运9斤重椅子、攀爬1米高桌子、翻跟头跳跃等复杂动作,甚至能流畅完成爬坡、搬箱子等任务。网友将其与特斯拉擎天柱对比,称其功能“强10倍”。

OmniRetarget的核心突破在于实现了强化学习策略在复杂环境中的“移-操一体”(loco-manipulation)技能学习,并首次达成从仿真到人形机器人的零样本迁移。这一成果依赖于其开源数据生成引擎,该引擎通过交互网格(interaction mesh)技术,将人类动作转化为机器人可执行的高质量运动学参考。与传统方法忽略人与环境交互不同,交互网格能精准建模机器人、物体和地形之间的空间与接触关系,从而生成运动学可行的动作变体。

研究团队介绍,交互网格是一个由机器人关节、物体采样点及环境关键点构成的体积结构。通过德劳内四面体化(Delaunay tetrahedralization)构建网格后,算法会最小化源动作(人类示范)与目标动作(机器人动作)之间的拉普拉斯形变能,确保动作重定向时保留局部空间结构和接触关系。例如,在搬运椅子时,网格会精确保持机器人手部与椅子的接触点,同时调整身体姿态以适应不同高度或形状的物体。

为提升数据多样性,OmniRetarget通过参数化改变物体配置、地形特征等方式,将单个人类演示转化为丰富数据集。例如,在机器人-物体交互中,系统会增强物体的空间位置和形状,生成多样化交互场景;在机器人-地形交互中,则通过调整平台高度和深度,模拟不同地形条件。研究特别加入约束,防止机器人下半身随物体简单刚体变换,从而生成真正多样化的动作。

在动力学实现层面,研究采用强化学习训练低层策略,将运动学参考轨迹转化为物理可执行动作。训练时,机器人仅依赖本体感知(如关节速度、骨盆线速度)和参考轨迹作为先验知识,无需直接感知场景信息。奖励函数包含身体跟踪、物体跟踪、动作速率等五类指标,确保动作质量的同时提升泛化能力。实验显示,搭载OmniRetarget的宇树G1机器人成功完成了持续30秒的多阶段跑酷任务,动作精度与通用性均达行业领先水平。

与PHC、GMR等开源基线对比,OmniRetarget在运动学质量指标(如穿透、脚部打滑、接触保留)上表现全面优于对手,下游强化学习策略成功率领先10%以上。即使在完整增强数据集上训练,其成功率仍达79.1%,与仅使用标称动作的82.2%接近,证明运动学增强可显著扩大动作覆盖范围而不降低性能。

值得关注的是,OmniRetarget背后的Amazon FAR团队成立仅七个多月,由华人学者段岩(Rocky Duan)领衔。该团队前身为知名机器人公司Covariant,其创始人包括伯克利机器人学习实验室主任Pieter Abbeel、Peter Chen等。去年8月,亚马逊与Covariant达成技术许可协议,吸纳其四分之一员工,并邀请Pieter Abbeel、Peter Chen和段岩加入。目前,段岩担任FAR研究负责人,OmniRetarget的惊艳亮相标志着亚马逊在人形机器人领域的首次突破。

参考链接:

[1]https://x.com/Thom_Wolf/status/1974774416815857779

[2]https://www.aboutamazon.com/news/company-news/amazon-covariant-ai-robots

[3]https://analyticsindiamag.com/ai-news-updates/amazon-forms-frontier-ai-robotics-team-to-revolutionise-automation/

[4]https://OmniRetarget.github.io/

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version