仿生触须阵列:磁驱动视觉触觉传感新突破实现精细操作与环境感知

《Nature Communications》:Vibrissae-inspired vision-based magnetic-actuated whisker

【字体: 时间:2025年12月22日 来源:Nature Communications 15.7

编辑推荐:

  为解决机器人触觉感知在非结构化环境中面临的定向灵敏度不足、系统复杂度高和主动交互能力有限等问题,研究人员开展了仿生触须式磁驱动视觉触觉传感器的研究。通过集成脉冲开关永磁体(PSPM)和相机跟踪系统,实现了多触点同步感知、毫牛级力检测、气流/水流感知、粘度判别及脆弱物体无损抓取。该传感器为软体机器人、生物医学操作等需精密触觉交互的场景提供了低功耗、高适应性平台。

  
在机器人技术领域,让机器像生物一样通过触觉与环境交互是一个长期追求的目标。特别是当机器人需要在未知或杂乱的非结构化环境中操作时,触觉感知变得至关重要,它能帮助机器人识别物体的形状、纹理、材料,甚至探测距离。受自然界中啮齿类动物(如老鼠)利用胡须(vibrissae)进行高效环境探索的启发,研究人员开发了多种人工触须传感器。这些传感器通常利用胡须的微小形变来探测外部刺激,避免了与物体的直接硬接触,从而在探测微小或易碎物品时具有独特优势。
然而,现有的大多数触须传感器仍面临诸多挑战。许多设计只能实现单点感知,无法像生物胡须那样形成阵列化的空间感知。在感知方向上,很多传感器难以精确分辨接触力的方向。更关键的是,大多数传感器是被动的,只能“感知”而无法“主动行动”,比如主动摆动胡须去探索周围环境或轻柔地抓取物体。一些尝试加入驱动功能的设计,又往往伴随着系统笨重、功耗高、结构复杂或耐用性差等问题。因此,如何在一个简洁的系统中同时实现高精度的多方向触觉感知和低功耗的主动交互,成为该领域一个亟待突破的难点。
针对上述挑战,普渡大学(Purdue University)的胡智娴(Zhixian Hu)、Juan Wachs和余舍(Yu She)等研究人员在《Nature Communications》上发表了一项创新研究,提出了一种仿生胡须式磁驱动视觉触觉传感器。这项研究的核心灵感来源于哺乳动物的胡须-毛囊-皮肤系统。在自然界中,胡须根部松动的毛囊内布满机械感受器,既能感知外部接触引起的胡须偏转(被动触觉),也能通过肌肉收缩驱动胡须主动摆动(主动触?须,whisking),从而实现对环境的主动探索和决策。研究团队巧妙地将这一生物机制工程化,设计了一个由八个可独立驱动的触须组成的圆形阵列。
为了模拟肌肉驱动,研究人员采用了脉冲开关永磁体(Pulse-Switchable Permanent Magnet, PSPM)作为驱动源。每个触须根部固定一个铁-弹性体复合材料立方体(iron-elastomer composite),正对着一个PSPM。只需一个短暂的电脉冲(如24V,2ms)就能磁化PSPM,使其吸引铁复合材料,从而带动触须向中心摆动;而一个更小的反向脉冲则可使其消磁,触须便在弹性膜的回弹力下恢复原位。这种驱动方式具有一个显著优点:一旦磁化,PSPM可以在不消耗额外电能的情况下保持激活状态,非常适合长时间、低功耗运行。
在感知方面,研究团队摒弃了在触须内部嵌入复杂电子元件的传统做法,转而采用一种非接触式的视觉跟踪方案。一个放置在触须阵列下方的微型摄像头(Raspberry Pi camera)实时捕捉每个触须根部红色标记点的运动。通过图像处理算法,可以将像素级别的位移精确转换为触须的物理位移和角度变化,进而推算出外部作用力的大小。这种视觉触觉(vision-based tactile sensing)方法避免了复杂的布线,利用摄像头的高信息密度轻松实现了多触须运动的同步跟踪。
该传感器具有两种工作模式:主动模式和被动模式。在主动模式下,PSPM被激活,触须可以主动“拥抱”物体,实现抓取和操作;在被动模式下,PSPM关闭,触须仅作为敏感的触觉传感器,响应外界的接触、气流或水流等刺激。这种双模式设计使得机器人能够根据任务需求灵活切换行为,增强了其在复杂环境中的适应性。
为了开展这项研究,作者们主要运用了几个关键技术方法:首先是仿生机械设计,核心是制作了支撑八个碳纤维触须(直径1mm,长度105mm)的Ecoflex 00-30弹性体薄膜(厚3mm),并集成了用于磁驱动的铁弹性体复合立方体和PSPM阵列。其次是脉冲开关磁驱动技术,利用H桥电路(BTS7960)控制PSPM的磁化与消磁,实现了对每个触须的独立、低功耗双向驱动。第三是视觉感知与跟踪技术,通过Raspberry Pi摄像头捕捉触须根部标记点的运动,并利用OpenCV进行图像处理(包括HSV色彩空间转换、轮廓提取、质心计算等),将像素位移映射到物理位移和角度。此外,研究还结合机器人平台(UR16e工业机器人)进行了功能验证,并采用了线性回归、多层感知器(MLP)等算法进行数据分析和物体分类。
传感器设计
研究人员设计了一个圆环形排列的八触须阵列,每个触须由碳纤维制成,根部通过弹性膜固定,并配有铁复合材料和对应的PSPM。摄像头从下方跟踪触须根部的红色标记点,从而实现对触须运动的实时监测。
驱动表征
实验评估了传感器的驱动性能。电压-角度关系测试表明,触须的旋转角度随施加在PSPM上的电压增加而增加,在24V时达到最大偏转。力测量显示,触须在测试点产生的平均力为4.488 mN,估计尖端力为0.775 mN,表明其能够进行极其轻柔的交互。有效负载测试表明,传感器能够可靠抓取克级(1.8-2.0g)的物体,非常适合精细操作。
感知表征
研究团队对传感器的感知能力进行了精细标定。像素-物理映射实验通过优化算法(Levenberg-Marquardt算法)拟合每个触须的实际枢轴点,将位移测量的平均绝对误差(MAE)从1.525 mm降低到0.859 mm,并实现了角度估计。像素-力映射实验建立了像素位移与施加力之间的线性关系模型,实现了MAE为0.271 mN的力感知精度。这些标定为可靠的触觉感知奠定了基础。
重复性测试
为了评估长期稳定性,传感器经历了1000次激活-失活循环。结果显示,触须位移的标准偏差很小(激活阶段介于0.273至1.578像素之间),表明其具有高度的机械一致性和感知可靠性。跨越十天的物体抓取测试也保持了100%的成功率,进一步验证了系统的稳定性。
气流传感
传感器能够感知不同速度的气流(高速5.0 m·s-1,中速4.7 m·s-1,低速4.3 m·s-1)。触须的振荡频率保持在5 Hz左右,但位移幅度随气流强度非线性增加。通过结合频域(快速傅里叶变换,FFT)和幅值分析,传感器能够有效区分气流引起的振荡(动态状态)与物体接触引起的位移(接触状态)。
水流传感
传感器被用于检测周期性水流的频率。在中等频率范围(1.84 Hz 到 4.45 Hz)内,触须的振荡频率能够准确跟踪外部水流的频率。在过低或过高的频率下,触须则表现出由其自身结构决定的固有频率(约3-4 Hz)特性,表明其作为被动流体动力学传感器的有效工作频带。
粘度传感
通过将触须阵列浸入不同粘度的液体(空气、水、菜籽油、枫糖浆、玉米糖浆)并驱动触须,研究人员发现触须位移衰减的速率与液体粘度的对数呈强负相关(R2≈0.85)。粘度越高,触须恢复静止位置的速度越慢。这提供了一种无需外部施力即可测量液体粘度的新方法。
物体分类
利用多层感知器(MLP)模型对十个不同形状和尺寸的物体进行触觉分类,传感器达到了98.7%的分类准确率。这表明仅通过有限的接触交互,传感器就能提取出有意义的物体特征。
轻量物体抓取
传感器使用不同数量的触须(八根、四根、两根)尝试抓取多种轻量物体(如纸花、迷你松果、爆米花等)。八触须配置取得了平均90%的最高抓取成功率,证明了其稳定抓取能力。抓取过程中触须位移的变化也反映了其对物体特性的感知能力。
精细晶体抓取
在与商用触觉传感器(GelSight Mini)和软体抓手(Fin-ray手指、星形PneuNet抓手)的对比实验中,该触须传感器在抓取脆弱晶体簇时表现优异,实现了无损抓取,而其他方案则出现了无法检测接触导致压碎或抓取成功率低的问题。作为概念验证,传感器还成功完成了一只活蜗牛的拾取和放置任务,展示了其在生物医学应用中的潜力。
这项研究成功开发并验证了一种集感知与动作用于一体的仿生触须阵列传感器。它通过创新的磁驱动(PSPM)和视觉跟踪技术,解决了传统触觉传感器在定向灵敏度、系统复杂度和主动交互能力方面的局限。实验结果表明,该传感器不仅能够实现高精度的物理映射、力感知和长期稳定操作,还能拓展至气流、水流、粘度感知等多种 tactile 功能,并最终实现了对轻量、脆弱物体的可靠无损抓取。
尽管在视觉跟踪延迟、输出力大小和三维驱动方面仍有提升空间,但这项研究为机器人触觉感知领域提供了一个紧凑、节能且功能丰富的平台。它标志着触觉传感从单纯的“感知”向“感知-行动”一体化的迈进,为软体机器人、环境探索、生物医学操作等需要精密、非侵入式交互的应用场景奠定了坚实的基础。未来,通过结合更先进的算法(如基于事件驱动的视觉)和材料微型化,这类传感器有望在智能机器人与环境的安全、灵巧交互中发挥更重要的作用。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号