
-
生物通官微
陪你抓住生命科技
跳动的脉搏
综述:基于无人机影像深度学习的杂草检测研究进展
【字体: 大 中 小 】 时间:2025年07月02日 来源:Smart Agricultural Technology 6.3
编辑推荐:
这篇综述系统回顾了2017-2024年77项研究,探讨了无人机(UAV)结合深度学习(DL)在农业杂草检测中的应用,重点分析了多旋翼无人机(如DJI Phantom)、多光谱传感器(MS)与卷积神经网络(CNN)、Transformer等架构的整合趋势,以及精准农业(PA)中目标检测(如YOLOv8)、语义分割(U-Net)和实例分割(Mask R-CNN)技术的性能指标(mAP、F1-Score)。
无人机(UAV)凭借灵活的低空飞行能力,已成为农业监测的核心工具。多旋翼机型(如DJI Phantom占比47%)因垂直起降优势占据主流,而固定翼机型则适用于大范围作业。传感器选择上,RGB相机(71%研究采用)因成本低、分辨率高被广泛使用,但多光谱(MS)和热成像(如MicaSense RedEdge)能通过NDVI等植被指数提升杂草识别率。飞行高度10米、速度1-4.8 m/s的设定可平衡分辨率(0.2-8 cm/像素)与覆盖效率,正午拍摄能减少阴影干扰。
标注工具LabelImg(32.5%使用率)虽简化了边界框标注,但像素级标注仍需10小时/图像。数据增强(旋转、色彩调整)和合成数据生成(GANs)成为解决样本不足的关键策略。公开数据集仅32个,且存在作物单一(玉米、甜菜占22%)和地域局限(中国、德国占45%)的问题,推动混合数据集和迁移学习成为趋势。
分类任务:ResNet-18凭借残差连接和轻量化特性(94%准确率)成为首选,而Vision Transformer(ViT)在跨生长阶段识别中展现潜力。
检测任务:YOLO系列(如v8n)以91.1%精度和86.7%召回率领先,其单阶段检测架构适配实时喷洒系统。
分割任务:U-Net的跳跃连接结构在语义分割中表现优异(89.95%像素准确率),而Mask R-CNN通过双分支设计实现实例级杂草定位。
mAP和F1-Score是主流评估指标,但类不平衡场景下需结合ROC曲线分析。训练依赖高端GPU(如NVIDIA RTX 3090),而边缘设备Jetson AGX Xavier可实现田间实时处理(30 FPS)。当前局限包括计算成本高(如Transformer)、标注偏差(人工错误率15%)及环境动态性(光照变化影响20%精度)。
开发轻量模型(如MobileViT)、优化多传感器融合(RGB+LiDAR)和探索自主喷洒机器人是突破重点。无人机群协同作业与抗遮挡算法(如注意力机制CBAM)将进一步提升复杂场景下的鲁棒性,推动精准农业(PA)迈向全自动化管理。
生物通微信公众号
知名企业招聘