ITBear旗下自媒体矩阵:

具身智能新突破:全球首个跨本体视触觉数据集“白虎-VTouch”开启机器人感知新纪元

   时间:2026-01-26 17:56:11 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在机器人技术向“具身智能”深度演进的进程中,如何赋予金属躯体人类般的细腻触觉,已成为突破精细化操作壁垒的核心命题。近日,由国地中心与纬钛机器人联合研发的全球首个跨本体视触觉多模态数据集“白虎-VTouch”正式发布,其以60000分钟的真实交互数据与跨设备采集范式,为机器人感知领域开辟了全新维度。

该数据集突破了传统实验数据的碎片化局限,构建起覆盖多模态信息的完整体系。其核心数据规模达9072万对真实接触样本,整合了视触觉传感器信号、RGB-D深度图像及机器人关节位姿数据,通过时空对齐技术实现三模态信息的深度融合。搭载的640×480分辨率传感器支持120Hz刷新率,可精准捕捉接触面0.01毫米级的形变与微牛级力反馈,为算法训练提供了毫米级精度的物理世界映射。

“跨本体”采集范式是该数据集的革命性突破。研究团队构建了包含人形机器人“青龙”、轮臂复合型机器人D-Wheel及手持式pika夹爪在内的多样化硬件平台,覆盖从复杂动力学构型到轻量化终端的全场景设备。这种设计使算法模型能够跨越不同机械结构,通过统一的数据表征实现感知能力的迁移学习,显著降低多形态机器人部署触觉感知的技术门槛。

针对现实场景的复杂性,数据集构建了四级任务矩阵体系。在家居家政领域,涵盖家具整理、厨具操作等32类交互任务;餐饮服务场景包含玻璃器皿抓取、食材处理等45种柔性物体操作;工业制造模块聚焦精密装配中的力控调整,特种作业则涉及高温/高压环境下的器械操作。任务设计包含100余项原子技能与260个接触密集型任务,形成从基础动作到复杂操作的全链条训练集。

实证研究表明,引入视触觉感知后,68%的任务实现了接触状态的全周期追踪。在玻璃杯抓取测试中,系统可实时感知接触面积变化与滑动趋势,使抓取成功率提升42%;在精密零件组装任务中,力控调整响应时间缩短至80毫秒,达到人类操作员水平。这种感知能力的质变,为机器人实现自主失败恢复与动态环境适应提供了关键支撑。

随着数据集与配套开发工具包的开放下载,全球科研机构已启动基于该数据的算法优化工作。某国际机器人实验室利用其多模态对齐技术,将触觉-视觉融合模型的训练周期从3个月压缩至3周;国内团队通过迁移学习,使工业机械臂在未见过的新场景中快速获得接触感知能力。这场由数据驱动的感知革命,正在重塑机器人技术的进化路径。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version