
-
生物通官微
陪你抓住生命科技
跳动的脉搏
综述:基于近感图像的农田杂草识别与控制的深度学习进展:最新研究综述
【字体: 大 中 小 】 时间:2025年09月13日 来源:Smart Agricultural Technology 5.7
编辑推荐:
本综述系统探讨了深度学习(DL)在真实农田环境下基于近感图像的杂草识别应用,重点分析了349篇相关研究。文章详细阐述了分类、检测与分割网络的进展,归纳了34个公开数据集及模型开发流程,特别关注了YOLO、ResNet和UNet等主流架构的实战表现。作者指出当前模型面临泛化能力不足的挑战,并强调了数据集多样性和实时部署中的光照、速度约束问题,为智能除草装备的优化提供了关键洞见。
杂草对全球粮食安全构成严重威胁,可导致玉米减产高达90%,小麦减产47%,菜豆减产71.4%。传统除草方法包括人工、机械和化学手段,但均存在局限性:人工除草效率低下,机械除草仅能清除50%的杂草且难以处理作物行内杂草,而化学除草虽有效却易造成环境污染。据统计,98.9%的农产品含有农药残留,欧盟等国已开始立法限制除草剂使用。
在此背景下,定点杂草管理(SSWM)技术应运而生。该技术通过智能装备(如搭载激光、高压电或机械臂的自动驾驶车辆)实现精准除草,可比传统方法减少45%-82%的除草剂用量。然而,SSWM的成功关键在于准确区分作物与杂草,而传统传感器(如光谱仪、超声波传感器)仅能检测绿色植物,无法区分物种。尽管图像分析技术通过颜色指数和形态特征实现了初步区分,但在杂草密度高或作物与杂草形态相似时性能显著下降。
深度学习(DL)的出现彻底改变了这一局面。自2012年AlexNet在ImageNet挑战赛中突破性表现以来,卷积神经网络(CNN)、YOLO系列目标检测框架以及Transformer模型相继被应用于杂草识别。这些模型能够自动学习多层次特征,在复杂农田环境中实现高效识别。然而,当前大多数模型仍在受控环境或小数据集上训练,难以应对真实农田的多样性挑战——包括杂草物种、生长阶段、密度、光照条件和土壤背景的剧烈变化。
农业系统分为灌溉农业和雨养农业。灌溉系统占全球耕地的24%,生产40%的粮食,适合使用苗前除草剂,但作物冠层会遮挡下层杂草。雨养系统则因缺乏土壤湿度较少使用苗前除草剂,导致作物与杂草同期生长,特征相似且密度高,极大增加了识别难度。
现有数据集大多未能涵盖真实农田的全部变异性,尤其缺乏高密度样本。研究表明,在背景变化或光照增强时,模型性能明显下降。尽管已有大量综述探讨DL在杂草识别中的应用,但多数聚焦于算法本身,缺乏对实地部署挑战的系统分析。本综述旨在填补这一空白,重点关注基于近感图像的DL模型开发流程及其在智能除草装备上的实战表现。
本研究系统检索了2015-2025年间发表的867篇文献,最终筛选出349篇符合标准的研究(103篇分类、152篇检测、94篇分割)。文献来源包括Elsevier、Springer、IEEE Xplore等权威数据库,检索关键词涵盖“杂草分类”、“深度学习”、“智能除草”等组合。筛选标准聚焦于:①使用真实农田数据集;②基于近感图像(RGB、多光谱或RGB-D);③涉及模型部署与田间评估。
数据分析显示,2016-2019年间相关研究较少,2023年达到高峰(平均26.4篇),2024年数量下降46.6%。YOLO系列在目标检测中占比53.48%,ResNet和VGG是分类任务的主流选择,UNet则主导分割任务。
杂草识别任务分为三类:
分类:对单株植物图像进行物种标注,适用于分离良好的植株,但无法提供空间位置信息。
检测:通过边界框定位并分类图像中的多个物体,可同时实现物种识别和位置标定。
分割:对每个像素进行分类(语义分割),能精确区分重叠植株,但计算复杂度较高。
图像采集设备包括无人机(如大疆Mavic Pro+Parrot Sequoia多光谱相机)、田间机器人(如BoniRob)、全地形车和手持设备(智能手机)。图像类型涵盖RGB(占比最高)、多光谱和RGB-D(如Intel RealSense D415)。为增强模型鲁棒性,数据集需包含不同时间、天气条件和植物密度的样本。雨后或阴天时植物颜色更易区分,而运动模糊和灰尘干扰可通过视频抽帧模拟。
公开数据集共34个(详见表1),代表性数据包括:
大豆杂草数据集(15,336张图像,分类)
植物幼苗数据集(960张图像,含玉米、小麦和甜菜)
甜菜与杂草多光谱数据集(12,340张图像,支持分类、检测和分割)
数据标注使用LabelMe、LabelImg等工具,高密度样本需半自动标注(如先通过颜色指数分割植被,再经CNN分离作物与杂草)。数据增强技术包括翻转、旋转、亮度调整,以及生成对抗网络(GAN)生成合成图像。
训练阶段包含图像预处理、架构选择和评估:
预处理:图像缩放常见尺寸为64×64、224×224、512×512像素,更大尺寸(704×704)可提升性能但增加计算负担。背景去除(如通过NDVI指数)和图像增强(高斯滤波、直方图均衡化)能提高模型专注度。
多模态融合:结合RGB、深度信息和多光谱数据,或融合不同网络的特征图,能显著提升识别精度。
训练配置:数据集通常按7:2:1或6:2:2划分训练、验证和测试集。硬件多采用GPU加速训练。
分类任务:ResNet和VGG系列最常用(分别占比15.17%和15.63%),Transformer应用较少(ViT仅3次)。玉米、大豆和甜菜是研究最集中的作物(图9)。最佳模型在二分类任务中准确率达98.7%,但多物种场景下性能下降。
检测任务:YOLO系列占主导(53.48%),Faster R-CNN占11.39%。注意力机制改进版(如SE-YOLOv5)在生菜杂草检测中mAP50达97.1%。棉花、玉米和大豆是主要应用场景(图10),但高密度和小目标检测仍是挑战。
分割任务:UNet(22%)、DeepLabV3(13.44%)和SegNet(10.75%)为主流。Transformer模型(Swin Transformer、SegFormer)虽性能优异但应用较少。甜菜、胡萝卜和水稻数据集评估显示,最佳mIoU达92.91%(自定义UNet变体)。注意力机制与CNN的融合架构在低光照条件下表现突出。
26项研究实现了模型部署(表5),装备分为:
智能喷雾机(SS):占比最高,搭载NVIDIA Jetson系列开发板, herbicide节省35%-65%。
激光除草机(SLW):使用RGB-D相机(如RealSense D435i),除草效率72.8%。
机械除草机(SMW):通过机械臂或锄刀作业,幼苗损伤率2.8%。
关键挑战包括:
光照影响:强光照导致识别率下降,阴天性能最佳。
行进速度:速度超过1.8 km/h时识别准确率显著降低。
推理速度:嵌入式设备帧率仅6.89-43 FPS,难以满足实时需求。
振动干扰:影响图像质量和执行器对准精度。
当前研究存在四大局限:
数据集代表性不足:样本量小、物种少、生长阶段单一,导致模型泛化能力弱。雨养系统的高密度场景尤其缺乏数据。
环境适应性差:光照、土壤颜色和营养状况变化显著影响模型性能。
部署瓶颈:设备振动、行进速度和计算资源限制实战效果。
评估标准不统一:各研究采用不同指标,难以横向对比。
未来方向包括:
建立全球协作的农田图像数据库,涵盖多物种、多生长阶段和多环境条件。
探索IoT架构,将计算任务卸载到云端高性能服务器。
开发持续学习模型,适应地域和季节变化。
标准化田间评估指标,区分化学、激光和机械控制方式。
深度学习在杂草识别领域已取得显著进展,但真实农田应用仍面临重大挑战。数据集多样性不足、环境变异性以及部署中的物理约束是主要瓶颈。通过构建更丰富的数据资源、优化边缘计算能力、统一评估标准,DL驱动的智能除草系统有望成为可持续农业的核心技术。未来需跨学科合作,将算法创新与农艺实践深度融合,最终实现高效、环保的杂草治理。
生物通微信公众号
知名企业招聘