基于计算机视觉的大豆田头地角转向路径可视化方法研究:融合深度学习与特征检测的动态导航线生成
【字体:
大
中
小
】
时间:2025年10月09日
来源:Frontiers in Plant Science 4.8
编辑推荐:
本文提出了一种融合深度学习与特征检测的动态导航线可视化方法,针对大豆V3–V8生长期头地角区域自动驾驶转向精度不足的问题展开研究。通过改进的轻量化YOLO-PFL模型(参数量1.974 M,计算量4.816 GFLOPs)实现高效头地角检测(精确率94.100%,召回率92.700%,mAP@0.5达95.600%),结合双目立体视觉构建3D定位模型(距离误差控制在2.000%–6.000%)。采用HSV颜色空间转换与形态学操作增强作物行轮廓,通过最小二乘法拟合特征点提取抗干扰作物行中心线(平均方向角误差–0.473°,平均绝对误差3.309°),最终生成世界坐标系下的圆弧路径并动态投影至图像平面实现导航线可视化。该方法为轮式农机自动转向提供实时导航参考,推动智能精准农业装备发展。
引言:智能农业是未来农业发展的重要方向,而农业机械的信息化与智能化是实现这一目标的关键。随着自动导航技术在精准农业中的应用日益广泛,全球导航卫星系统(GNSS)、激光雷达(LiDAR)和计算机视觉(CV)成为主流技术。然而,GNSS在头地角区域易受建筑物、树木等障碍物信号干扰,导致定位不准。相比之下,成本较低的CV技术能够解析感知周围道路环境、静态动态物体及作物生长场景,弥补GNSS绝对定位方法的不足和LiDAR应用场景的局限性。
材料与方法:本研究聚焦于圆弧转向路径的可视化,旨在利用CV和图像处理技术构建高精度视觉导航系统,提升大豆V3–V8生长期(第三片三出复叶完全展开至第八片三出复叶完全展开)头地角区域轮式农业机械的自动转向能力。整体算法流程包括三个核心部分:基于YOLO-PFL模型对OAK-D-S2视觉传感器采集的大豆头地角RGB图像进行目标检测,结合双目立体视觉获取作物垄的3D坐标;通过颜色空间转换和图像形态学操作提取垄内作物行轮廓,进而通过特征点提取和最小二乘法拟合中心线估算作物行与相机的相对方位角;结合头地角位置和作物行方向确定世界坐标系下的圆弧转向路径,并将该路径投影回图像坐标系实现可视化。
头地角定位:研究选用1,800张图像,按V3–V4、V5–V6、V7–V8生长期各600张,使用LabelImg软件标注,数据集按7:1:2比例划分为训练集、验证集和测试集。提出的YOLO-PFL改进目标检测算法基于YOLOv8,引入CSP-PTB(Cross Stage Partial–Partially Transformer Block)模块增强全局建模能力,采用FeaturePyramidSharedConv模块实现多尺度上下文感知,并集成LSDECD(Lightweight Shared Detail Enhanced Convolutional Detection Head)检测头提升检测精度与效率。双目立体视觉技术基于视差原理,通过三角测量计算深度,结合相机内参将2D像素转换为3D坐标。
作物行方位角估算:图像预处理阶段,将RGB图像转换为HSV颜色空间模型提取绿色区域,设定最小和最大HSV值生成掩膜图像,通过腐蚀和膨胀形态学操作去噪增强作物行边缘特征。使用cv2.findContours()函数检测轮廓,并设定最小面积阈值过滤噪声。为准确提取作物行中心线特征,在图像上定义多个感兴趣区域(ROI),每个ROI为与图像同宽的40像素高水平条带,以60像素间隔逐步偏移确保覆盖作物行区域。通过逐位与操作检测ROI与作物行轮廓的重叠区域,筛选面积过小的重叠部分以减少噪声,计算每个掩膜交集质心作为提取的特征点。利用cv2.fitLine()函数基于L2范数最小二乘准则对质心坐标集合进行直线拟合,获取最优拟合线性参数,并计算拟合直线与水平轴的夹角以定量描述作物行取向。
转向路径生成与可视化:在世界坐标系中,根据头地角相对位置和作物行与相机相对方位角动态确定圆弧半径(R)、弧度(α)和圆心(O)。通过立方样条插值(CubicSpline)实现当前车辆朝向与目标圆弧之间的平滑过渡,避免转向突变。将世界坐标系下的圆弧转向路径点转换为相机坐标系,利用相机内参矩阵投影至CAM_B采集的图像平面,应用失真系数校正投影点,确保其准确匹配图像中真实位置,同时约束投影点偏移避免超出图像边界。最终在图像平面绘制每个投影点,形成连续清晰的圆弧路径,为农业机械导航系统提供直观的指导轨迹。
结果与讨论:YOLO-PFL模型在头地角检测中达到94.100%精确率、92.700%召回率和95.600% mAP@0.5,参数量和计算量分别为1.974 M和4.816 GFLOPs,轻量化效果显著。相比RT-DETR、YOLOv6n和YOLOv8n模型,性能更优且内存占用最低。双目立体视觉的3D定位在≤3.000 m、3.000–7.000 m和7.000–10.000 m范围内的距离误差分别控制在2.000%、4.000%和6.000%以内,表现出良好的3D定位能力。作物行中心线拟合方向角平均误差为–0.473°,最大误差不超过7.000°,平均绝对误差3.309°,准确度高且稳定性强,能够有效克服秸秆、杂草、光照变化及缺株贴地区域干扰。路径可视化结果显示,圆弧路径在图像中呈现为连续线条,布局均匀、方向过渡平滑,无跳跃或失真。
结论:本研究通过融合深度学习与特征检测算法,实现了大豆田头地角转向导航线的精准检测与可视化,为轮式农业机械在V3–V8生长期的自动驾驶提供了可行的技术方案。该方法在检测精度、3D定位和路径规划方面均表现出色,满足实际应用需求。未来工作将扩展测试条件至背光、高杂草密度和不同土壤湿度等复杂场景,进一步提升系统泛化能力和运行效率。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号