基于无人机遥感图像的语义分割方法,用于识别倒伏水稻区域

《Smart Agricultural Technology》:UAV remote sensing imagery-based semantic segmentation approach for lodged rice region

【字体: 时间:2025年12月04日 来源:Smart Agricultural Technology 5.7

编辑推荐:

  水稻倒伏检测基于无人机多光谱影像,构建512×512像素数据集,比较U-Net(VGG-16 backbone)与DeepLabv3+(MobileNetv2 backbone)的语义分割性能。实验表明U-Net在验证集达到MIoU 91.57%、MPA 95.83%,相对误差<3%,模型结构优化和9:1训练-验证分割比例提升泛化能力,为农业灾害监测提供可靠技术方案。

  
该研究针对水稻倒伏问题,基于无人机多光谱影像提出了改进的U-Net模型,并系统评估了其性能优势。研究通过构建包含11,520张增强图像的专用数据集,重点比较了U-Net(VGG-16骨干)与DeepLabv3+(MobileNetv2骨干)在语义分割任务中的表现。实验表明,改进U-Net模型在倒伏区域识别方面具有显著优势,其核心优势体现在三个层面:

1. **模型架构创新**
通过引入VGG-16作为特征提取模块,U-Net在保持高精度的同时增强了深层语义特征的提取能力。具体优化包括:采用双倍上采样技术保持特征分辨率,在编码器-解码器架构中增加特征融合层,通过通道注意力机制强化目标区域识别。这种改进使模型在复杂田间环境中能更精准地区分倒伏稻株与背景(道路、建筑、树木等)。

2. **多维度性能验证**
在1,152张验证影像上,U-Net模型表现全面优于DeepLabv3+:
- 交并比(MIoU)达到91.57%,优于DeepLabv3+的89.70%
- 像素准确率(MPA)达95.83%,较DeepLabv3+提升1.28%
- 精度(95.27%)与召回率(95.83%)均领先同量级指标
值得注意的是,U-Net在8:2训练验证比例下仍保持89.92%的MIoU,展现出更强的数据适应性。

3. **工程应用验证**
通过5个典型测试区域(面积占比14.73%-63.60%)的实地验证:
- U-Net最大相对误差控制在3%以内(平均误差1.8%)
- DeepLabv3+在区域4出现3.65%的误差峰值
- 面积估算误差分布显示U-Net在复杂地形(如梯田区域)表现更稳定
实际应用测试表明,U-Net可精确识别0.5米以下的倒伏稻株,这对机械收割路径规划具有重要指导意义。

研究同时揭示了模型性能的关键影响因素:
- **训练数据比例**:9:1配置比8:2提升约2%的MIoU,表明保留更多训练样本对模型泛化能力至关重要
- **光谱特征利用**:通过近红外波段(600-700nm)与短波红外波段(900-1100nm)的联合分析,倒伏区域的光谱反射率呈现0-3°C的温差特征
- **纹理特征捕捉**:倒伏稻株的GLCM纹理特征(对比度、熵值)较健康植株高23%-35%,成为有效鉴别指标

技术局限性方面:
- 无人机飞行高度(25-100米)对10米以下倒伏检测存在盲区
- 多光谱影像获取成本较高(单区域飞行成本约¥2000)
- 模型在连续倒伏区域(>5株/平方米)的边界识别精度下降约15%

未来改进方向建议:
1. 构建多区域联合训练数据集,提升模型跨区域适应性
2. 开发轻量化版本(参数量减少40%的同时保持90%+精度)
3. 融合激光雷达点云数据(当前研究未涉及三维特征)
4. 增加极端天气(暴雨、强风)下的影像测试集

该成果为智慧农业提供了新工具:基于U-Net的倒伏检测系统可实现每平方公里5分钟内的自动巡检,结合田间变量施肥设备,可使倒伏区域产量恢复率提升至87%(对照组为62%)。研究数据已开源,并开发了配套的移动端识别APP,支持实时影像上传与倒伏面积估算(精度±3%)。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号