计算机视觉助力谷物作物收获前损失精准量化:创新突破与农业变革

【字体: 时间:2025年05月07日 来源:Computers and Electronics in Agriculture 7.7

编辑推荐:

  传统测量谷物作物收获前损失的方法(如样方法)存在诸多弊端,研究人员开展利用计算机视觉技术量化收获前损失的研究。结果显示,改进的 YOLOv8-p2 模型表现最佳。该研究为优化农业实践、保障粮食安全提供了新途径。

  在农业生产的大舞台上,谷物作物(如小麦、大豆等)是全球粮食安全的重要支柱。然而,收获前损失却像隐藏在暗处的 “窃贼”,悄悄侵蚀着农作物的产量。据估算,2018 年因收获前的各种因素,大豆和小麦损失了 26% - 30% 的潜在生物产量。传统测量收获前损失的样方法,就如同用一把简陋的尺子去衡量复杂的世界,不仅需要耗费大量人力,而且获取的数据稀疏,无法准确反映田间的实际情况。更糟糕的是,在测量过程中,人为干扰还可能导致额外损失,使得测量结果出现偏差。与此同时,现有的收获后损失评估方法,如依靠联合收割机产量损失监测器,也存在传感器精度有限、难以检测未脱粒谷物损失等问题。这些不足,严重阻碍了农业技术的优化和农民对自身管理实践的改进,也对粮食安全构成了潜在威胁。在这样的背景下,开展一项能够精准量化收获前损失的研究迫在眉睫。
国外研究人员针对这一难题展开了深入研究。他们的研究成果发表在《Computers and Electronics in Agriculture》上。研究人员旨在开发一种基于计算机视觉的方法,取代传统的样方法,实现收获前损失的自动化、可扩展且更精确的估计;同时,能够区分不同的收获前损失来源,并评估不同的数据采集方法,建立相关数据集,运用深度学习模型进行检测和量化,并在实际条件下验证模型。

为实现这些目标,研究人员运用了多种关键技术方法。他们使用配备特定相机的无人机(DJI Inspire 2 搭配 Zenmuse 相机)采集航拍图像,获取作物田的整体概况;利用安装在地面车辆前端的相机进行连续图像采集,获取地面数据。在模型训练和评估方面,采用了包括 Mask RCNN、YOLOX、DETR 和改进的 YOLOv8-p2 等先进的深度学习模型,并使用 Precision、Recall 和 F1-score 等指标来评估模型性能。

在研究结果部分:

  • 数据采集方面:通过无人机在不同高度(1.52 米、3.05 米、4.57 米和 6.10 米)拍摄,收集了 5145 张大豆图像;小麦数据集则是利用改装在无人地面车辆(UGV)上的装置,在两个不同高度采集获得。
  • 模型评估方面:对多个先进模型进行训练和评估后发现,改进的 YOLOv8-p2 模型在大豆(Precision = 0.727,Recall = 0.694,F1 = 0.710)和小麦(Precision = 0.709,Recall = 0.688,F1 = 0.698)数据集上表现优异,其引入的 p2 头有效提升了对小物体的检测能力,在各项指标上均超过其他模型。另外,实验还表明,整合 850nm 近红外(NIR)图像通道对模型性能提升并不显著。

在研究结论和讨论部分,此次研究意义重大。研究证明了将视觉系统集成到联合收割机头部并识别田间初始脱落损失的可行性。改进的 YOLOv8-p2 模型为收获前损失的检测和量化提供了更有效的工具,其在识别损失方面的高精度,有助于农民更准确地了解损失情况,进而优化农业生产管理策略,减少经济损失。同时,这种方法能够区分不同类型的收获前损失,为深入探究损失来源提供了可能,有助于农业制造商针对性地优化收割机设计。此外,该研究为未来进一步探索其他作物类型的收获前损失量化奠定了基础,推动了农业领域精准化发展,对保障全球粮食安全具有重要意义。未来研究还将聚焦于进一步优化模型,拓展其在其他作物上的应用,以及实现数据采集和分析的实时处理与自动化,不断提升农业生产的智能化水平。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号