综述:基于改进YOLOv10n模型的复杂环境下棉花识别方法研究

【字体: 时间:2025年07月19日 来源:Smart Agricultural Technology 6.3

编辑推荐:

  本文提出了一种改进的YOLOv10n模型,通过集成SimAM注意力机制和轻量级C2f-PConv结构,显著提升了复杂农田环境中多类别棉花(Fully/Partially/Defected/Flower)的识别性能,检测精度(mAP@0.5)达94.8%,较基线模型提升1.3个百分点,为棉花机械化采收提供了高效视觉解决方案。

  

引言

棉花作为中国第二大农作物,其机械化采收面临复杂农田环境下多生长周期目标的精准识别挑战。传统人工采收效率低下,而现有目标检测模型在光照变化、目标遮挡和样本不平衡等场景中表现欠佳。针对这些问题,研究团队基于YOLOv10n架构进行双重优化:引入无参SimAM注意力机制强化关键特征聚焦能力,采用部分卷积(PConv)替代标准卷积构建轻量级C2f-PConv模块,显著降低计算冗余。

实验数据与方法

数据集采集自新疆沙雅县棉田,包含2,118张覆盖不同生长周期、光照条件和遮挡程度的图像,标注为四类:完全开放棉铃(Fully)、部分开放棉铃(Partially)、缺陷棉铃(Defected)和花期(Flower)。为解决样本比例失衡(14.85:1.25:1:1.92),采用逆向权重分配策略进行训练补偿。

模型创新设计

SimAM模块通过能量函数动态计算三维注意力权重,其核心公式为:
et(*) = 4(σ?2+λ)/[(t-?)2+2σ?2+2λ]
该机制无需额外参数即可实现通道-空间协同注意力。C2f-PConv模块将PConv参与率设为1/4,使FLOPs降至常规卷积的1/16,内存访问成本减少75%。测试表明,该结构在保持94.5% mAP@0.5的同时,参数量减少14.9%。

性能验证

对比实验中,改进模型全面超越主流架构:

  • 相较Faster R-CNN和SSD,mAP@0.5分别提升12.5和22.5个百分点
  • 在"Defected"类别识别准确率(AP)达93.4%,较基线提高1.3个百分点
  • 计算效率优势显著:FLOPs(2.8G)仅为Faster R-CNN的1.4%

应用展示

田间测试显示,模型对重叠棉铃(如图11所示)的识别置信度稳定在0.85以上,但对极端光照下的密集目标仍存在约5%的误检率。值得注意的是,SimAM模块使"Flower"类别的召回率提升至94.7%,有效支持采收机械的视觉导航。

结论与展望

该研究通过神经架构搜索与轻量化设计,实现了准确率(94%)与效率(1.45M参数)的平衡。未来工作将聚焦于三维点云融合算法开发,以解决当前模型对空间重叠目标的识别局限。实验数据已开源,为农业AI领域提供重要基准参考。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号