
-
生物通官微
陪你抓住生命科技
跳动的脉搏
面向遥感影像超小目标检测的前后视图融合策略与新型数据集研究
【字体: 大 中 小 】 时间:2025年07月08日 来源:Knowledge-Based Systems 7.2
编辑推荐:
为解决遥感影像中超小目标(STOs)因特征稀缺和背景干扰导致的检测难题,武汉大学团队提出兼容YOLO框架的前后视图融合策略(FBV-Fusion),通过目标掩模生成(TMG)和跳跃卷积(Skip Conv)增强特征提取,并构建RS-STOD数据集。实验表明该方法在AI-TOD、TinyPerson等数据集上优于现有技术(SOTA),为复杂场景下的STOs检测提供新思路。
在遥感影像分析领域,超小目标(STOs)检测长期面临"大海捞针"般的挑战——目标尺寸往往小于16像素,其微弱的几何和光谱特征极易被复杂背景淹没。传统方法如支持向量机(SVM)和Adaboost表现乏力,而基于深度学习的方法又因卷积和下采样过程中的特征丢失陷入困境。更棘手的是,遥感影像中普遍存在的"同物异谱"现象(相同物体呈现不同光谱特征)和密集目标排列,进一步加剧了检测难度。当前主流数据集如COCO和AI-TOD虽包含STOs,但样本分布失衡且缺乏针对遥感场景的专业标注,制约了算法的发展。
武汉大学研究团队在《Knowledge-Based Systems》发表的研究中,创新性地提出前后视图融合策略(FBV-Fusion)。该方法通过YOLO骨干网络生成目标掩模(TMG),将特征层划分为目标与背景区域,再利用跳跃卷积替代传统卷积,实现对目标区域的特征强化提取。为填补数据空白,团队构建了包含亚太地区多城市影像的RS-STOD数据集,其0.45-8米的空间分辨率和密集场景标注为算法验证提供了新基准。
关键技术包含三方面:基于Segment Anything Model(SAM)的TMG模块实现精准区域分割;跳跃卷积通过并行处理目标/背景特征保留上下文信息;多尺度特征融合策略缓解下采样信息损失。实验采用AI-TOD、RS-STOD和TinyPerson三个数据集,验证了方法在YOLOv5-v11系列模型上的普适性。
方法
FBV-Fusion策略的创新性体现在分层处理机制:骨干网络提取初级特征后,TMG模块通过语义分割生成二进制掩模,指导后续卷积操作聚焦目标区域。跳跃卷积采用双分支结构,分别处理掩模划分的目标特征和背景特征,最后通过特征重组保留STOs的细微特征。这种"分而治之"的思路显著提升了网络对16像素以下目标的敏感度。
RS-STOD数据集
新建数据集涵盖北京、东京等亚太城市的高分辨率影像,包含停车场、码头等典型密集场景。与现有数据集相比,RS-STOD的标注精度达到亚像素级,特别标注了舰船、车辆等微小目标的密集排列情况,其中最小目标仅2×2像素,平均尺寸较AI-TOD缩小23.6%。
实验结果
在AI-TOD测试集上,FBV-Fusion使YOLOv8的mAP50提升12.7%,对小汽车等微小目标的召回率提高19.2%。在RS-STOD的船舶检测任务中,该方法在8米分辨率影像上实现94.3%的检测准确率,显著优于Faster R-CNN等传统方法。跨数据集测试表明,其泛化性能较基准模型提升34.5%。
结论
该研究通过FBV-Fusion策略解决了YOLO系列模型在STOs检测中的特征丢失问题,其创新性的掩模引导机制为微小目标检测提供了新范式。RS-STOD数据集的发布填补了遥感领域专业评测基准的空白。实验证实该方法在保持实时性的前提下,对16像素以下目标的检测精度达到SOTA水平,对国防侦察、灾害监测等应用具有重要价值。未来研究可探索多模态数据融合与三维重建技术的结合,进一步提升复杂场景下的检测鲁棒性。
生物通微信公众号
知名企业招聘