基于无人机影像与深度学习的天气驱动域适应增强杂草检测技术研究

【字体: 时间:2025年06月21日 来源:Computers and Electronics in Agriculture 7.7

编辑推荐:

  为解决复杂天气条件下杂草检测精度不足的问题,研究人员开展了一项结合CycleGAN域适应与ConvNeXt-UPerNet分割架构的无人机影像分析研究。该研究通过生成合成天气数据增强模型泛化能力,在 soybean 田间实现96.2%准确率和92.1% IoU,为精准农业杂草管理提供鲁棒解决方案。

  

杂草是农业生产中的顽固对手,它们与作物争夺水分、养分和阳光,导致北美地区玉米和大豆等作物年产量损失高达50%。传统除草剂过度使用不仅引发抗药性杂草问题,还造成土壤和水源污染。尽管无人机(UAV)和计算机视觉技术为精准除草提供了新思路,但现实农田中多变的天气条件(如晴/阴光照差异)和杂草形态多样性,使得现有深度学习模型难以稳定识别杂草。更棘手的是,获取涵盖各种天气条件的标注数据集成本极高,这成为制约技术落地的关键瓶颈。

针对这一挑战,美国威斯康星大学麦迪逊分校的研究团队在《Computers and Electronics in Agriculture》发表了一项创新研究。他们设计了一个两阶段框架:首先利用CycleGAN实现晴-阴天气域的图像转换以扩充训练数据,随后构建基于ConvNeXt骨干网络的编码器-解码器分割模型(集成UPerHead和FCNHead组件),最终在 soybean 田间实现92.1%的IoU值,显著优于Deeplabv3plus等主流模型。这项突破为动态环境下的精准除草提供了可推广的技术路径。

关键技术方法
研究采用威斯康星州Arlington研究站2022-2023年夏季采集的 soybean 田无人机RGB影像。第一阶段通过CycleGAN实现无配对数据的晴/阴天气域转换,生成合成训练样本;第二阶段设计以ConvNeXt为骨干的实例分割模型,结合UPerHead捕捉多尺度特征和FCNHead细化分割边界。评估采用交叉验证与独立测试集,指标包含mIoU和像素级准确率。

研究结果

Study area and experimental setup
实验在温带气候区(年均温29.4°C)的 soybean 田进行,无人机飞行高度30米,分辨率1.2cm/像素。数据集包含6种常见杂草,通过人工标注生成像素级真值。

Results
提出的模型在测试集达到96.2%准确率和92.1% mIoU,较Swin Transformer提升8.3个百分点。可视化显示该模型能准确区分叶片重叠的杂草(如waterhemp)与作物,且在合成阴天影像上保持89.7%的检测稳定性。

Discussion
传统方法在阴天条件下性能下降15-20%,而域适应技术使模型光照鲁棒性提升3倍。ConvNeXt的层级卷积结构有效捕捉了杂草纹理特征(如叶缘锯齿),UPerHead则解决了小目标漏检问题。

Conclusion
该研究创新性地将天气域适应与先进分割架构结合:

  1. CycleGAN生成的合成数据使模型在有限标注下覆盖92%的天气变异;
  2. ConvNeXt-UPerNet组合在密集杂草区域的分割精度比传统CNN提高19%;
  3. 方法在跨年数据上保持90%+泛化性能,证实其适用于动态农业环境。

这项技术为减少70%除草剂用量提供了可行方案,其域适应思路可扩展至其他农业视觉任务(如病害检测)。未来研究可探索多模态传感器融合以进一步提升系统鲁棒性。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号