基于无人机影像与深度学习的甜菜田杂草精准识别与处方图生成技术研究
【字体:
大
中
小
】
时间:2025年10月12日
来源:Journal of Agriculture and Food Research 6.2
编辑推荐:
本研究针对甜菜田杂草防控中传统播撒施药导致的成本高、环境污染等问题,利用无人机获取的高分辨率RGB影像,结合U-Net、PSPNet、DeepLabv3等语义分割模型及YOLOv8、Mask R-CNN等实例分割模型,实现了甜菜与杂草的精准识别与分割,并生成处方图。结果显示,U-Net结合ResNet-34骨干网络在分割任务中表现最优,杂草IoU达0.72,理论除草剂节省率高达82.88%。研究为精准农业中的变量施药提供了可部署于边缘设备的实时解决方案,显著提升杂草管理的效率与可持续性。
在甜菜种植过程中,杂草是影响作物产量和品质的主要生物胁迫因素之一。由于甜菜属于低矮作物,极易受到高大杂草的遮蔽和竞争,导致严重减产。传统的杂草防控广泛依赖广播式喷洒除草剂,虽然操作简便,但造成了除草剂的过度使用,不仅增加了生产成本,还带来环境污染、生态风险以及杂草抗药性发展等问题。随着精准农业理念的深入和技术的进步,如何实现“按需施药”、减少化学品投入已成为现代农业研究的重点。
在此背景下,利用无人机(Unmanned Aerial Vehicle, UAV)遥感技术和人工智能算法实现作物与杂草的精准识别与管理显示出了巨大潜力。尽管已有一些研究尝试利用机器学习方法区分作物和杂草,但在甜菜田的后期出苗阶段,作物与杂草冠层重叠、光谱特征相似,给准确识别带来了极大挑战。此外,大多数现有研究集中于早期生长阶段或单一类别检测,缺乏面向实际田间管理需求的实时、精细杂草测绘与处方图生成能力。
为此,Jino Joy、Betitame Kelvin等研究人员在《Journal of Agriculture and Food Research》上发表了一项研究,致力于开发一套集成深度学习与边缘计算技术的杂草识别与精准喷洒框架。该研究以美国北达科他州格兰德农场的甜菜试验田为研究对象,利用无人机采集高分辨率RGB正射影像,系统评估了多种语义分割与实例分割模型在复杂田间环境中的性能,并进一步生成可用于变量喷洒的处方图,为实现高效、环保的田间杂草管理提供了技术支撑。
本研究主要依托以下关键技术方法:首先,利用配备RTK定位系统的DJI Phantom 4 Pro RTK-MS无人机采集田间RGB影像,通过Pix4Dmapper进行影像拼接,生成高分辨率正射影像;其次,使用ArcGIS Pro和LabelMe进行地面真实标注,构建包含甜菜、单株杂草与杂草斑块的数据集;第三,系统训练并评估U-Net、PSPNet、DeepLabv3等语义分割模型以及YOLOv8、Mask R-CNN等实例分割模型;最后,基于模型输出生成不同粒度(如5×5 cm2、25×25 cm2、50×50 cm2)的处方图,并理论计算除草剂节省潜力。所有模型均在配备NVIDIA RTX 6000 GPU的工作站上训练,并进一步在Jetson Orin Nano嵌入式设备上验证推理性能。
3.1. Prescription Maps and Semantic Segmentation
3.1.1. Model Evaluation
研究人员首先评估了多种语义分割模型在甜菜和杂草识别任务上的性能。结果显示,U-Net结合ResNet-34骨干网络取得了最优的综合表现,其对甜菜和杂草的交并比(IoU)分别达到0.85和0.72,显著优于PSPNet和DeepLabv3等模型。尽管后者在某些指标如召回率上表现更佳,但在实际图像分割效果与稳定性方面,U-Net显示出更好的鲁棒性。统计分析(Kruskal-Wallis检验)表明不同模型间IoU存在显著差异(p < 0.05),进一步证实了模型选择对分割精度的影响。
3.1.2. Effect of chip size
研究还探讨了输入图像尺寸(chip size)对模型性能的影响。结果表明,增大图像块尺寸(如从256像素提升至512像素)能够提供更丰富的空间上下文信息,有助于模型更好地区分作物与杂草,尤其提升了PSPNet-ResNet-34的综合性能指标(精确度、召回率与F1分数)。
3.1.3. Development and analysis of Prescription maps
基于U-Net-ResNet-34的分割结果,研究团队生成了杂草覆盖处方图,将田间划分为网格单元,并根据杂草覆盖率决定是否施药。结果表明,在最高分辨率网格(5×5 cm2)下,理论除草剂节省率可达82.88%。尽管在不同网格大小下施药率存在一定差异,但整体上表明基于深度学习的处方图可大幅降低除草剂使用,且分辨率越高,节省效果越接近真实情况。
3.2. Real-time Mapping and Instance Segmentation
在实例分割方面,YOLOv8在平均精度(mAP@0.5)上达到0.728,优于Mask R-CNN的0.627,显示出更优的检测速度与分割准确性。研究人员进一步开发了多种YOLOv8变体(如YOLOv8-SB、YOLOv8-prune等),并结合FP16与INT8量化技术优化模型,使其在Jetson Orin Nano嵌入式设备上实现高达48 FPS的推理速度,满足实时处理需求。结果显示,轻量化模型在保持较高精度的同时显著降低了计算资源消耗,为现场部署奠定基础。
3.3. Discussion
本研究系统比较了多种先进深度学习模型在甜菜田杂草识别与分割任务上的性能,并成功将输出转化为实际可用的处方图,弥补了现有研究在后期生长阶段、高密度杂草场景下的不足。与传统植被指数或机器学习方法相比,深度学习能够更好地处理复杂田间环境中的光谱混淆与空间重叠问题。此外,该研究还强调了边缘部署在实现实时杂草管理中的关键作用,为无人机与地面喷雾设备的集成提供了可行路径。
研究的局限性包括模型在极端光照和土壤条件下的泛化能力不足,且尚未开展真正的田间实时喷洒验证。此外,当前系统仅支持离线处理,未来需进一步优化以实现全流程实时化与自适应多环境应用。
综上所述,该项研究通过整合无人机遥感、深度学习与边缘计算技术,开发了一套高效的甜菜田杂草识别与精准管理系统。U-Net和YOLOv8等模型表现出优异的分割性能,生成的处方图可实现理论80%以上的除草剂节省,且优化后的模型具备良好的边缘部署能力。该成果不仅有助于减少化学品使用、降低环境风险,也为智慧农业中的变量作业技术提供了重要实践依据,具有显著的推广应用价值。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号