CPD-YOLO:一种利用无人机和智能手机成像技术的跨平台棉花病虫害检测方法
《Industrial Crops and Products》:CPD-YOLO: A cross-platform detection method for cotton pests and diseases using UAV and smartphone imaging
【字体:
大
中
小
】
时间:2025年07月21日
来源:Industrial Crops and Products 6.2
编辑推荐:
检测棉花病虫害的跨平台YOLOv8改进模型及移动应用研究。通过构建包含无人机和智能手机图像的复合数据集,提出R&B-FPN特征金字塔网络、动态检测头网络和I-Shape IoU损失函数,显著提升多尺度目标检测精度(F1-score 88.86%,mAP 90.42%)。开发的Doctor Cotton应用支持双平台实时检测,验证了模型在复杂场景下的泛化能力(F1 87.56%,mAP 89.87%)。
棉花作为全球重要的工业作物和纺织原料,在国家经济和日常生活中扮演着重要角色。随着农业生产对效率和精准度的不断追求,智能检测棉花病虫害问题成为自动化棉花种植管理的关键。本研究提出了一种跨平台检测方法,利用无人机(UAV)和智能手机图像技术,实现对棉花病虫害的高效识别。该方法基于自建的改进型YOLO模型,即CPD-YOLO,通过构建双向特征金字塔网络(BiFPN)与重参数化视觉Transformer(RepViT)相结合的网络结构,实现了多尺度特征融合与推理效率之间的最佳平衡。此外,设计了包含四个动态检测头的头部网络,以提升多维度动态感知能力。同时,提出了一种名为“Inner-Shape Intersection over Union”(I-Shape IoU)的边界框回归损失函数,旨在提高定位精度并加快模型收敛速度。实验结果表明,该改进策略显著提升了跨平台场景下对多尺度对象的检测准确率,相较于原始模型,F1值和平均精度(mAP)分别提升了7.44%和7.08%。CPD-YOLO模型在检测多种棉花病虫害方面表现出色,F1值达到88.86%,mAP达到90.42%。同时,该模型在泛化能力方面也表现出良好,F1值和mAP分别下降了1.30%和0.55%。此外,还开发了一款名为“Doctor Cotton”的移动应用,利用CPD-YOLO模型实现棉花病虫害的实时精准检测,为农民和植保管理人员提供了一种新的田间工具。这些成果为利用消费级无人机和智能手机进行其他作物病虫害检测提供了有价值的参考。
### 1. 引言
棉花在农业生产和经济活动中具有举足轻重的地位。在生长过程中,棉花常常受到多种病虫害的侵害,这些病虫害不仅影响棉花的产量,还对其质量产生负面影响。例如,蚜虫、双斑叶甲和褐斑病等常见病虫害,都会对棉花的叶片造成明显损害,从而影响其正常生长。传统的病虫害检测主要依赖于人工观察或专家经验,这种方式不仅主观性强,而且耗时费力,难以满足现代农业对自动化和高效检测的需求。因此,开发一种快速、准确的病虫害检测方法,对于提高棉花种植管理效率具有重要意义。
近年来,随着深度学习技术的发展,基于卷积神经网络(CNN)的图像分类算法被广泛应用于棉花病虫害的检测。尽管这些方法在某些简单背景下的识别效果较好,但在复杂背景中往往只能识别单一类型的病虫害。棉花叶片通常受到多种病虫害的共同影响,这使得单一识别模型难以满足实际需求。因此,基于CNN的目标检测算法逐渐成为解决多类型病虫害检测的有效手段。YOLO算法因其智能、实时、高效和准确的特点,在目标检测领域取得了显著成就。然而,在复杂田间环境中,棉花病虫害的检测准确率仍然较低。为此,研究人员提出了多种改进的YOLO模型,例如引入注意力机制、优化网络结构等,以提升检测效果。尽管这些改进模型在某些场景下表现优异,但在跨平台应用中仍存在一定的局限性。例如,智能手机图像检测在小规模棉田中较为适用,但难以满足大规模棉田的检测需求;而无人机图像检测虽然能够覆盖更大范围,但受限于图像分辨率和背景复杂度,检测准确率仍有待提高。因此,亟需一种适用于农民和植保管理人员的跨平台病虫害检测方法,以提高检测效率和准确性。
### 2. 材料与方法
本研究的技术路线主要分为三个部分:数据集构建、CPD-YOLO模型设计以及移动应用开发。通过构建一个包含蚜虫、双斑叶甲和褐斑病的跨平台数据集,结合改进的YOLOv8模型和I-Shape IoU损失函数,实现对棉花病虫害的高效识别。同时,开发了一款名为“Doctor Cotton”的移动应用,集成CPD-YOLO模型,以便在田间实时检测病虫害。
#### 2.1 图像采集与分割
本研究使用消费级无人机(DJI Mavic 3)和智能手机(Honor 9)进行图像采集,涵盖蚜虫、双斑叶甲和褐斑病等多种病虫害。无人机图像采集地点为新疆石河子市的北泉镇和宝塔镇,时间跨度为2023年6月至7月;智能手机图像采集地点为新疆石河子市的北泉镇,时间跨度为2021年6月至7月。为了增强数据的多样性,研究人员考虑了不同自然光照条件对图像质量的影响,因此在不同时间段(上午9点至12点、下午5点至7点)和不同天气(晴天、阴天、多云)条件下进行图像采集。无人机搭载了2000万像素的哈苏相机,飞行高度为5米,镜头垂直向下,采用7倍变焦拍摄;智能手机则通过2000万像素的广角镜头,在15至20厘米的拍摄距离下,从不同角度采集图像。为了确保图像数据的一致性,无人机和智能手机的拍摄参数均设置为自动模式。采集的图像以JPEG格式保存,分辨率为4000×3000像素(无人机)和3968×2976像素(智能手机)。采集的原始数据包括736张无人机图像和1228张智能手机图像,随机划分为训练集、验证集和测试集,比例为7:2:1。
#### 2.2 数据标注与增强
所有图像均采用AnyLabeling工具进行手动标注,并保存为XML格式文件。标注内容包括病虫害的位置和类型,例如蚜虫损伤的叶片、双斑叶甲咬噬的叶区域以及褐斑病的病斑。随后,将标注文件统一转换为TXT格式,以符合YOLO标准数据集格式。在检测任务中,病虫害在图像中可能呈现多种方向和位置,因此需要采用一系列数据增强方法,包括旋转、亮度调整、翻转、模糊处理和裁剪,以扩展训练、验证和测试数据集的规模。最终,获得2060张无人机图像用于模型训练,589张用于验证,295张用于测试;3439张智能手机图像用于训练,983张用于验证,492张用于测试。训练集、验证集和测试集的图像数量分别为5499、1572和787张。
#### 2.3 CPD-YOLO模型架构
YOLOv8是YOLO系列中的最新模型,由输入层、主干网络、颈部网络和头部网络组成。输入层包括马赛克数据增强、自适应锚框计算和自适应灰度填充。主干网络采用C2f模块,结合了跨阶段部分网络(C3)和高效层注意力网络(ELAN)的优势,从而有效增强了梯度流的丰富性和特征强度。颈部网络采用SPPF模块,用于聚合多尺度上下文信息。头部网络采用解耦头和无锚框框架,以减少预测时间,同时实现分类和边界框回归任务。
CPD-YOLO模型是在YOLOv8基础上进行改进的模型,主要引入了R&B-FPN和I-Shape IoU损失函数。R&B-FPN是双向特征金字塔网络与重参数化视觉Transformer的结合,旨在增强多尺度特征表示和融合能力。头部网络则设计了四个动态检测头,以适应不同场景下的多尺度检测任务。I-Shape IoU损失函数则用于提高边界框回归的定位精度并加快模型收敛速度。
#### 2.4 实现与评估方法
实验环境采用Windows 11专业版的计算机系统,配备Intel(R) Core(TM) i7–14650HX处理器、NVIDIA GeForce RTX 4060显卡、NVIDIA CUDA Toolkit 11.6.2开发环境、NVIDIA cuDNN 8.9.0加速库、PyTorch 1.13.0深度学习框架和PyCharm集成开发平台。所有模型均训练200个epochs,使用1个数据加载器和8个batch size。实验采用随机梯度下降(SGD)优化器,初始学习率设为0.005,权重衰减因子设为0.0001。
模型的评估指标包括精度(P)、召回率(R)、F1值和mAP。此外,模型的复杂度和推理速度通过参数数量、模型大小和每秒浮点运算次数(FLOPs)进行评估。实验结果表明,CPD-YOLO模型在检测精度和速度方面均表现出色,相较于其他典型模型,其F1值和mAP分别提高了7.44%和7.08%。
### 3. 结果
#### 3.1 消融实验
本研究以YOLOv8l为基线模型,通过引入R&B-FPN、DyHead和I-Shape IoU损失函数,优化了模型的性能。消融实验结果显示,所有改进模型均优于原始YOLOv8l模型。其中,采用三种改进策略的模型在检测精度方面表现最佳,F1值为88.86%,mAP为90.42%。然而,该模型的FLOPs和参数数量也有所增加,分别为186.23 G和52.48 M。
#### 3.2 不同模块和损失函数的比较
为了验证R&B-FPN和I-Shape IoU损失函数的优势,研究人员进行了不同模块和损失函数的比较实验,包括BiFPN、Shape-IoU和Inner-IoU。实验结果表明,BiFPN相较于PANet,在F1和mAP方面分别提高了2.34%和2.51%。然而,BiFPN的计算复杂度较高,FLOPs和参数数量分别增加了10.38%和11.03%。R&B-FPN在保持计算复杂度的同时,进一步提高了模型性能,F1和mAP分别提升了0.11%和1.69%。I-Shape IoU损失函数在提升边界框回归精度方面表现突出,相较于CIoU,F1和mAP分别提高了1.52%和1.76%。
#### 3.3 不同目标检测模型的比较
为了进一步验证CPD-YOLO模型的优越性,将其与多种典型目标检测模型进行比较,包括Faster R-CNN、RT-DERT、YOLOv5l、YOLOxs、YOLOv7、YOLOv8l、YOLOv9c和YOLOv12l。实验结果表明,CPD-YOLO模型在检测精度方面表现最佳,F1值和mAP分别为88.86%和90.42%。其他模型在检测精度方面均低于CPD-YOLO,例如YOLOv5l、YOLOxs、YOLOv7、YOLOv8l和YOLOv9c的F1值和mAP分别在80.61%至82.22%之间。CPD-YOLO模型的参数数量和FLOPs较高,分别为52.48 M和186.23 G,但其在检测精度方面显著优于其他模型。
#### 3.4 泛化测试
为了评估CPD-YOLO模型的泛化能力,研究人员构建了一个独立的数据集,包含100张无人机图像和100张智能手机图像,来源于2023年7月的玛纳斯县。泛化测试结果表明,CPD-YOLO模型在检测蚜虫、双斑叶甲和褐斑病方面表现良好,其中蚜虫的检测精度最高,达到94.44%;双斑叶甲的检测精度次之,为85.08%;而褐斑病的检测精度最低,为72.43%。总体来看,CPD-YOLO模型在泛化测试中表现稳定,F1值和mAP分别为87.56%和89.87%。
### 4. 讨论
#### 4.1 改进策略
本研究首先优化了颈部网络,以提高棉花病虫害的检测能力。引入BiFPN替代PANet,优化了多尺度特征的一致性,并提升了特征融合能力。与PANet相比,BiFPN在F1和mAP方面分别提升了2.34%和2.51%。然而,BiFPN的多尺度特征融合效率仍有待提升,因此研究人员构建了R&B-FPN,以提高网络的灵活性,并实现多尺度特征融合与推理效率之间的平衡。实验结果表明,R&B-FPN在保持计算复杂度的同时,进一步提升了模型性能,F1和mAP分别提升了0.11%和1.69%。此外,引入了DyHead以增强模型在无人机和智能手机场景下的适应能力。由于无人机和智能手机的视场不同,棉花病虫害的尺度差异较大。DyHead通过多维注意力机制,提升了多尺度对象检测的准确性。实验表明,CPD-YOLO模型在减少漏检和误检方面表现优异,特别是在无人机图像中,漏检数量显著减少。
#### 4.2 检测性能
在无人机图像中,棉花病虫害的尺度较小且数量较多,这使得检测难度显著增加。尽管典型YOLO系列模型的计算复杂度较低,但其在多尺度特征融合和检测能力方面存在不足。因此,CPD-YOLO模型在提升检测精度方面表现突出,其在无人机图像中减少了漏检和误检的数量。在智能手机图像中,病虫害的尺度较大且特征明显,因此典型模型的检测效果较好。然而,由于无人机图像的背景更为复杂,病虫害之间的遮挡现象也更为严重,导致漏检率较高。CPD-YOLO模型通过增强特征融合和构建多尺度动态检测头网络,有效解决了这一问题。
#### 4.3 应用前景
本研究还开发了一款名为“Doctor Cotton”的移动应用,集成CPD-YOLO模型,以实现棉花病虫害的实时检测。该应用支持无人机和智能手机两种图像采集方式,能够方便地获取图像并进行检测。此外,该应用界面友好,检测性能优异,有助于农民和植保管理人员在田间快速识别病虫害。尽管CPD-YOLO模型的参数数量和计算复杂度较高,但其在跨平台场景下的检测精度显著优于其他模型。未来,研究人员计划通过网络剪枝和知识蒸馏等方法,降低模型的计算复杂度,以提高应用的响应速度。同时,还将通过收集更多不同无人机和智能手机图像,提升模型的适应能力,包括不同类型的病虫害和不同地区的棉花种植情况。
### 5. 结论
棉花在生长过程中常受到多种病虫害的侵害,影响其产量和质量。本研究提出了一种基于CPD-YOLO的跨平台病虫害检测方法,利用无人机和智能手机图像进行高效识别。通过构建R&B-FPN和引入I-Shape IoU损失函数,CPD-YOLO模型在多尺度特征融合和推理效率方面表现出色。实验结果表明,该模型在检测精度方面显著优于其他典型模型,F1值和mAP分别提升了7.44%和7.08%。此外,CPD-YOLO模型在泛化测试中也表现出良好的性能,F1值和mAP分别为87.56%和89.87%。开发的“Doctor Cotton”移动应用为农民和植保管理人员提供了便捷的检测工具,有望成为棉花病虫害检测的新手段。然而,模型的参数数量和计算复杂度仍较高,未来研究将通过优化网络结构,进一步提升其应用性能。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号