ITBear旗下自媒体矩阵:

中国团队突破技术壁垒!光纤触觉机器人助力介入手术实现“全身感知”新突破

   时间:2025-11-02 03:44:30 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在医疗科技飞速发展的当下,介入治疗凭借创伤小、恢复快的优势,逐渐成为众多疾病治疗的首选方案。然而,传统手术机器人多为“关节式”刚性结构,在人体内迂回狭窄的天然腔道中难以施展拳脚。与之不同的是,连续体机器人宛如章鱼触手,没有明显关节,由柔性材料构成,可实现平滑连续弯曲,具备极高的灵活性与形状适应性,能自然贴合复杂解剖结构,直达深部目标。但这种灵活性也带来新挑战:在不可视管腔内行进时,机器人易与血管壁、支气管壁等组织接触,若无法感知接触而“硬闯”,轻则操作不精准,重则可能刺穿管壁,引发严重并发症。因此,为连续体机器人赋予“触觉”,使其能实时量化与环境相互作用力并调整自身形状,成为实现安全、精准介入手术的关键。

现有力传感技术路径,如基于模型、电子传感器的方法,常面临体积大、刚性高的问题,难以微型化并集成到柔性机器人全身,实现全身范围接触感知成为亟待解决的难题。面对这一挑战,上海交通大学医疗机器人研究院的高安柱教授研究团队另辟蹊径,提出多路复用光纤的连续体机器人综合性解决方案。

该技术的硬件核心是巧妙的光纤复用设计。研究人员将特殊的单芯光纤(SCF)作为驱动连续体机器人弯曲的“缆绳”,这些光纤内部刻写有多个FBG传感器。当电机拉动光纤驱动机器人弯曲时,光纤自身形变会引发FBG传感器反射波长变化,且这一变化与光纤所受张力成正比。如此一来,同一根光纤既充当传递力量的“肌肉”,又扮演感知张力的“神经”。同时,机器人内部还嵌入一根多芯光纤(MCF),用于精确感知机器人身体的实时弯曲形状(曲率)。通过解调这些分布式“神经”信号,系统能同步获取驱动张力分布和机器人三维形状两大关键信息。

有了驱动和形状信息,如何反推出外部接触位置和大小?研究团队将其视为“逆问题”求解。首先,他们建立连续体机器人的物理模型,清晰描述外部接触力、内部驱动张力与最终机器人形状三者之间的力学关系,如同为机器人赋予“运动力学常识”,帮助理解何种受力情况会产生何种变形。然而,实际环境中摩擦、材料非线性等因素,使纯粹依靠物理模型进行实时、精准反推计算困难重重。于是,研究人员引入神经网络,设计多层感知器(MLP)模型,其输入为光纤的驱动张力数据和机器人形状数据,输出是预测的接触位置和三维接触力。通过大量数据训练,该网络能学习从机器人状态到接触状态的复杂、非线性映射关系,为机器人装备“触觉大脑”,可瞬间做出判断。

训练高性能神经网络需要海量且多样化数据,但对物理机器人施加成千上万次不同力进行数据采集,不仅效率低,还可能损坏机器人。为此,团队运用生成对抗网络(GAN)这一数据增强技术。他们先依据物理模型生成100万组模拟数据,再结合少量真实实验数据训练GAN,使其生成的模拟数据不断逼近真实情况。通过这种方式,AI模型训练数据从“少量真实数据”扩展为“真实数据 + 大量高质量模拟数据”,有效缓解数据短缺问题,大幅降低对真实机器人的损耗。

为验证该方法的普适性和准确性,研究人员开展一系列实验,从“二维平面”到“三维空间”,再到模拟医疗场景逐步推进。在二维平面实验中,研究团队用“平面连续体机器人”(只能在一个平面内弯曲)进行测试,在机器人不同位置挂不同质量砝码模拟接触力,让AI预测接触位置和力。实验结果显示,接触位置平均误差仅0.8毫米,接触力误差仅7.1毫牛(约相当于0.7克物体的重力,比一张A4纸还轻)。团队还展示有趣应用场景——让两台机器人协同“抓取气球”,AI能实时计算两者对气球的抓取力,既不捏破气球,也不让其脱落。

随后在“空间连续体机器人”(可在三维空间中任意弯曲,更贴近真实体内运动情况)上展开实验。尽管接触情况更复杂,但在GAN生成模拟数据辅助下,AI表现优异。接触位置平均误差为1.7毫米,接触力平均误差为8.7毫牛,这一精度已能满足医疗操作基本需求。无论机器人向左弯还是向前扭,AI都能准确算出挂在其中部的3克砝码(约29.4毫牛的力)的位置和力大小,误差始终在可控范围内。

最后,研究团队模拟两个关键医疗场景验证技术实用性。一是“避障运动”:在微创手术中,机器人通常设有“远程运动中心”,如腹壁切口处。实验中,当机器人触碰障碍物,AI检测到接触力超过安全阈值,即控制其反向转动避开障碍,确保RCM点安全。二是“气道介入”:团队用3D打印的人体气道模型模拟机器人进入肺部过程。当机器人接触气道壁,AI能实时在屏幕上显示接触位置与力度。如在气道弯曲处,机器人外侧与管壁接触,系统准确显示接触力为12毫牛,医生可据此调整机器人姿态,避免损伤气道黏膜。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version