基于点线融合的视觉-惯性温室机器人定位算法:提升动态光照环境下的鲁棒性与精度

《Smart Agricultural Technology》:A Visual-Inertial Localization Algorithm for Greenhouse Robots Based on Point-Line Features

【字体: 时间:2025年10月23日 来源:Smart Agricultural Technology 5.7

编辑推荐:

  为解决温室环境中动态光照和潜在障碍物对视觉-惯性定位系统精度的影响,研究人员开发了一种基于点线特征的视觉-惯性定位算法。该算法通过改进的EDLines检测器和自适应调整策略,增强了特征提取与匹配能力,在公开数据集和自建温室数据集上验证表明,其定位误差最大仅为0.152 m,光照不足条件下X、Y轴平均误差分别降低80.0%和82.5%,整体跟踪匹配时间低于40 ms,显著提升了温室机器人定位的准确性和实时性。

  
在农业机器人技术快速发展的背景下,温室机器人因其在环境感知、喷洒作业和作物采收等方面的应用潜力而备受关注。然而,温室环境具有结构密集、信号遮挡严重、光照条件复杂多变等特点,给机器人的精确定位带来了巨大挑战。传统依赖全球导航卫星系统(GNSS)的方法在温室中易受干扰,而激光雷达(LiDAR)虽然精度较高但成本昂贵,不利于大规模部署。视觉传感器以其低硬件成本和丰富的信息捕获能力,成为温室机器人定位的研究热点,但单纯依赖点特征的方法在纹理稀疏或光照不足的环境中容易失效。
针对这一问题,西南大学工程技术学院的研究团队在《Smart Agricultural Technology》上发表了一项研究,提出了一种基于点线特征的视觉-惯性定位算法,重点解决温室环境下因光照变化和特征稀疏导致的定位精度下降问题。
研究人员通过改进的EDLines线特征检测器结合长度过滤与匹配优化策略,提升了线特征的提取质量和匹配效率;引入点线特征自适应调整机制,根据环境光照动态调节特征数量;最终在视觉-惯性框架中实现了点线特征的融合优化。研究使用了公开数据集EuRoC (v2_01_easy)和自建温室数据集进行验证,涵盖充足光照和不足光照两种条件。
关键技术方法包括:使用Shi-Tomasi角点检测和KLT光流进行点特征跟踪;采用改进的EDLines算法进行线特征检测,增加短线融合、密度控制和自适应重提取机制;利用光流法进行线特征跟踪,建立多帧间的特征对应;通过滑动窗口优化整合点线特征和IMU数据;在自建温室数据集中使用ZED2i相机和IMU610采集图像及惯性数据,并与LiDAR-VLP-32C融合获取真值轨迹。
研究结果显示:
在公开数据集测试中,该算法的最大定位误差为0.152 m,相比VINS-Mono、PL-VIO和PL-VINS算法,误差峰值降低37.7%,轨迹热图显示其误差分布更集中。
在充足光照的温室环境中,X和Y方向的平均误差分别为0.054 m和0.114 m,较基线方法误差降低31.6%和51.1%。
在不足光照环境下,X和Y方向平均误差降低80.0%和82.5%,证明算法在弱光条件下仍保持高鲁棒性。
实时性测试表明,点特征跟踪匹配时间约11 ms,线特征约23 ms,总时间低于40 ms,满足实时作业需求。
全局构图实验中,算法在S形路径和直角转弯任务中表现出更好的轨迹一致性和地图准确性,减少了累积误差。
研究的结论部分强调,通过融合点线特征和引入自适应调整机制,显著提升了视觉-惯性系统在温室环境中的定位精度和环境适应性。该算法不仅解决了光照变化引起的特征退化问题,还通过优化线特征提取与匹配流程,降低了计算开销,为温室机器人的自主导航提供了可靠的技术基础。未来工作可进一步探索多传感器深度融合和复杂动态场景下的应用拓展。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号