
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于多模态无人机影像与深度学习的秸秆焚烧实时监测:UAV-StrawFire数据集与智能算法创新
【字体: 大 中 小 】 时间:2025年06月03日 来源:International Journal of Applied Earth Observation and Geoinformation 7.6
编辑推荐:
针对传统卫星遥感监测秸秆焚烧存在时空分辨率不足的问题,本研究通过无人机搭载RGB和热红外(TIR)传感器构建UAV-StrawFire数据集,开发了特征融合检测模型FF-YOLOv5n(mAP50-95达0.5764)、轻量化分割网络BiSeNetV2(mIoU>0.88)及实时跟踪算法Aba-ViTrack(精度0.9065),为农业火灾智能监测提供了多模态基准方案。
秸秆焚烧是发展中国家普遍存在的农业活动,其排放的PM2.5等污染物严重威胁区域空气质量和公共健康。传统卫星遥感因重访周期长、空间分辨率低,难以捕捉小规模秸秆焚烧事件。尽管无人机(UAV)凭借高时空分辨率成为新兴监测手段,但缺乏专门针对秸秆燃烧的多模态数据集制约了算法开发。
中国研究人员在《International Journal of Applied Earth Observation and Geoinformation》发表研究,通过无人机搭载Zenmuse H20N传感器,在湖南长沙开展受控秸秆焚烧实验,构建了首个公开的秸秆焚烧多模态数据集UAV-StrawFire,包含配对的RGB-TIR图像(640×512像素)及视频数据。研究采用尺度不变特征变换(SIFT)进行图像配准,开发了特征融合目标检测框架FF-YOLOv5n、轻量级分割模型BiSeNetV2,并量化部署了基于视觉Transformer的Aba-ViTrack跟踪算法。
4.1 图像融合检测性能
通过对比7种检测模型发现,热红外(TIR)模态显著优于RGB模态(YOLOv8n在TIR上mAP50-95达0.5660)。提出的FF-YOLOv5n通过特征级融合实现最优检测性能(mAP50-95 0.5764),较像素级融合方法提升10.3%。
4.2 火焰分割精度
BiSeNetV2在TIR图像上展现卓越分割能力,mIoU达0.8869,边界IoU达0.7210,误检率比RGB模态降低62%。可视化结果显示RGB模型易将未燃烧秸秆误判为火点,而TIR模型能准确区分热辐射特征。
4.3 实时跟踪效能
Aba-ViTrack在TIR视频中实现100%跟踪精度,经TensorRT量化后模型体积压缩47.4%,在NVIDIA Jetson NX平台达到50 FPS实时性能,显著优于传统算法如MEDIANFLOW(存在目标切换问题)。
该研究创新性地建立了秸秆焚烧多模态分析框架,证实TIR传感器在复杂环境下的监测优势。FF-YOLOv5n的特征融合策略为多源遥感数据整合提供新思路,而BiSeNetV2的高效分割能力支持精准火场边界提取。通过边缘计算部署,该系统可实现田间秸秆焚烧的实时预警,为智慧农业监管提供技术支撑。未来需扩大数据集覆盖更多燃烧场景,以增强模型泛化能力。
生物通微信公众号
知名企业招聘