基于无人机遥感图像的语义分割方法,用于识别倒伏水稻区域
《Smart Agricultural Technology》:UAV remote sensing imagery-based semantic segmentation approach for lodged rice region
【字体:
大
中
小
】
时间:2025年12月04日
来源:Smart Agricultural Technology 5.7
编辑推荐:
水稻倒伏检测基于无人机多光谱影像,构建512×512像素数据集,比较U-Net(VGG-16 backbone)与DeepLabv3+(MobileNetv2 backbone)的语义分割性能。实验表明U-Net在验证集达到MIoU 91.57%、MPA 95.83%,相对误差<3%,模型结构优化和9:1训练-验证分割比例提升泛化能力,为农业灾害监测提供可靠技术方案。
该研究针对水稻倒伏问题,基于无人机多光谱影像提出了改进的U-Net模型,并系统评估了其性能优势。研究通过构建包含11,520张增强图像的专用数据集,重点比较了U-Net(VGG-16骨干)与DeepLabv3+(MobileNetv2骨干)在语义分割任务中的表现。实验表明,改进U-Net模型在倒伏区域识别方面具有显著优势,其核心优势体现在三个层面:
1. **模型架构创新**
通过引入VGG-16作为特征提取模块,U-Net在保持高精度的同时增强了深层语义特征的提取能力。具体优化包括:采用双倍上采样技术保持特征分辨率,在编码器-解码器架构中增加特征融合层,通过通道注意力机制强化目标区域识别。这种改进使模型在复杂田间环境中能更精准地区分倒伏稻株与背景(道路、建筑、树木等)。
2. **多维度性能验证**
在1,152张验证影像上,U-Net模型表现全面优于DeepLabv3+:
- 交并比(MIoU)达到91.57%,优于DeepLabv3+的89.70%
- 像素准确率(MPA)达95.83%,较DeepLabv3+提升1.28%
- 精度(95.27%)与召回率(95.83%)均领先同量级指标
值得注意的是,U-Net在8:2训练验证比例下仍保持89.92%的MIoU,展现出更强的数据适应性。
3. **工程应用验证**
通过5个典型测试区域(面积占比14.73%-63.60%)的实地验证:
- U-Net最大相对误差控制在3%以内(平均误差1.8%)
- DeepLabv3+在区域4出现3.65%的误差峰值
- 面积估算误差分布显示U-Net在复杂地形(如梯田区域)表现更稳定
实际应用测试表明,U-Net可精确识别0.5米以下的倒伏稻株,这对机械收割路径规划具有重要指导意义。
研究同时揭示了模型性能的关键影响因素:
- **训练数据比例**:9:1配置比8:2提升约2%的MIoU,表明保留更多训练样本对模型泛化能力至关重要
- **光谱特征利用**:通过近红外波段(600-700nm)与短波红外波段(900-1100nm)的联合分析,倒伏区域的光谱反射率呈现0-3°C的温差特征
- **纹理特征捕捉**:倒伏稻株的GLCM纹理特征(对比度、熵值)较健康植株高23%-35%,成为有效鉴别指标
技术局限性方面:
- 无人机飞行高度(25-100米)对10米以下倒伏检测存在盲区
- 多光谱影像获取成本较高(单区域飞行成本约¥2000)
- 模型在连续倒伏区域(>5株/平方米)的边界识别精度下降约15%
未来改进方向建议:
1. 构建多区域联合训练数据集,提升模型跨区域适应性
2. 开发轻量化版本(参数量减少40%的同时保持90%+精度)
3. 融合激光雷达点云数据(当前研究未涉及三维特征)
4. 增加极端天气(暴雨、强风)下的影像测试集
该成果为智慧农业提供了新工具:基于U-Net的倒伏检测系统可实现每平方公里5分钟内的自动巡检,结合田间变量施肥设备,可使倒伏区域产量恢复率提升至87%(对照组为62%)。研究数据已开源,并开发了配套的移动端识别APP,支持实时影像上传与倒伏面积估算(精度±3%)。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号