基于多模态无人机影像与深度学习的秸秆焚烧实时监测:UAV-StrawFire数据集与智能算法创新

【字体: 时间:2025年06月03日 来源:International Journal of Applied Earth Observation and Geoinformation 7.6

编辑推荐:

  针对传统卫星遥感监测秸秆焚烧存在时空分辨率不足的问题,本研究通过无人机搭载RGB和热红外(TIR)传感器构建UAV-StrawFire数据集,开发了特征融合检测模型FF-YOLOv5n(mAP50-95达0.5764)、轻量化分割网络BiSeNetV2(mIoU>0.88)及实时跟踪算法Aba-ViTrack(精度0.9065),为农业火灾智能监测提供了多模态基准方案。

  

秸秆焚烧是发展中国家普遍存在的农业活动,其排放的PM2.5等污染物严重威胁区域空气质量和公共健康。传统卫星遥感因重访周期长、空间分辨率低,难以捕捉小规模秸秆焚烧事件。尽管无人机(UAV)凭借高时空分辨率成为新兴监测手段,但缺乏专门针对秸秆燃烧的多模态数据集制约了算法开发。

中国研究人员在《International Journal of Applied Earth Observation and Geoinformation》发表研究,通过无人机搭载Zenmuse H20N传感器,在湖南长沙开展受控秸秆焚烧实验,构建了首个公开的秸秆焚烧多模态数据集UAV-StrawFire,包含配对的RGB-TIR图像(640×512像素)及视频数据。研究采用尺度不变特征变换(SIFT)进行图像配准,开发了特征融合目标检测框架FF-YOLOv5n、轻量级分割模型BiSeNetV2,并量化部署了基于视觉Transformer的Aba-ViTrack跟踪算法。

4.1 图像融合检测性能
通过对比7种检测模型发现,热红外(TIR)模态显著优于RGB模态(YOLOv8n在TIR上mAP50-95达0.5660)。提出的FF-YOLOv5n通过特征级融合实现最优检测性能(mAP50-95 0.5764),较像素级融合方法提升10.3%。

4.2 火焰分割精度
BiSeNetV2在TIR图像上展现卓越分割能力,mIoU达0.8869,边界IoU达0.7210,误检率比RGB模态降低62%。可视化结果显示RGB模型易将未燃烧秸秆误判为火点,而TIR模型能准确区分热辐射特征。

4.3 实时跟踪效能
Aba-ViTrack在TIR视频中实现100%跟踪精度,经TensorRT量化后模型体积压缩47.4%,在NVIDIA Jetson NX平台达到50 FPS实时性能,显著优于传统算法如MEDIANFLOW(存在目标切换问题)。

该研究创新性地建立了秸秆焚烧多模态分析框架,证实TIR传感器在复杂环境下的监测优势。FF-YOLOv5n的特征融合策略为多源遥感数据整合提供新思路,而BiSeNetV2的高效分割能力支持精准火场边界提取。通过边缘计算部署,该系统可实现田间秸秆焚烧的实时预警,为智慧农业监管提供技术支撑。未来需扩大数据集覆盖更多燃烧场景,以增强模型泛化能力。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号