OSHFNet:基于光学与SAR图像异构双分支动态融合网络的土地利用分类方法研究

【字体: 时间:2025年06月05日 来源:International Journal of Applied Earth Observation and Geoinformation 7.6

编辑推荐:

  针对光学与SAR图像特征表达差异导致的分类性能受限问题,研究人员提出异构双分支网络OSHFNet,采用CNN和VMamba分别提取局部与全局特征,结合动态门控融合模块实现多尺度特征互补。实验表明该方法在道路等细长地物分类中准确率提升15%,为多源遥感数据融合提供了新思路。

  

随着全球环境变化监测需求的增长,高精度土地利用分类成为遥感领域的关键挑战。光学与合成孔径雷达(SAR)图像作为两大主流遥感数据源,虽具有互补性——光学图像富含光谱纹理信息但易受天气干扰,SAR图像具备全天候成像能力却存在斑点噪声——但两者巨大的表征差异导致传统同构特征提取网络难以充分挖掘其优势。现有方法多采用相同结构处理异构数据,造成信息表达不准确,尤其对道路等细长地物分类效果欠佳。

针对这一瓶颈,中国研究人员在《International Journal of Applied Earth Observation and Geoinformation》发表研究,提出OSHFNet异构双分支动态融合网络。该工作创新性地采用CNN提取光学图像局部特征,VMamba捕获SAR图像全局结构,引入动态蛇形卷积(DSConv)增强细长地物识别,并通过全局-局部动态门控(GLDG)模块实现多尺度特征融合。在WHU-OPT-SAR和YYX-OPT-SAR数据集上的实验表明,该方法整体分类精度最优,道路类别准确率显著提升15%,为多源遥感智能解译提供了新范式。

关键技术包括:1) 异构双分支架构(ResNet18+VMamba)实现模态特异性特征提取;2) DSConv增强VMamba对SAR图像细长结构的建模能力;3) 多尺度特征提取(MFE)与动态门控(DG)融合模块;4) 跨分辨率数据集验证(中分辨率5m WHU-OPT-SAR和高分辨率0.5m YYX-OPT-SAR)。

3.1 网络架构设计
OSHFNet采用编码-融合-解码框架。光学分支使用预训练ResNet18提取多层次局部特征,SAR分支通过嵌入DSConv的VMamba网络捕捉全局结构,其交叉扫描机制通过四向扫描策略构建全局感受野。实验证实该异构设计比同构双CNN或双VMamba网络在mIoU上提高3%。

3.2 动态蛇形卷积创新
针对SAR图像中道路、河流等细长目标,将标准卷积替换为DSConv,通过累积偏移量使卷积核沿目标几何形态自适应变形。在YYX-OPT-SAR数据集上,该改进使道路分类IoU从30.2%提升至45.12%,有效解决传统卷积对线性结构特征捕获不足的问题。

3.3 多阶段特征融合
GLDG模块包含MFE和DG两个子模块:MFE通过多核卷积(1×1,3×3,5×5)提取局部多尺度特征,结合自注意力获取全局上下文;DG则通过门控权重动态筛选互补特征。消融实验显示,完整GLDG模块使mIoU较基线提升7.37%,证明多尺度与动态融合的协同效应。

4.2 中分辨率数据集验证
在WHU-OPT-SAR测试中,OSHFNet以81.65%OA和46.56%mIoU超越所有对比方法。特别在水体(78.55%IoU)和道路(45.12%IoU)分类中表现突出,可视化结果显示其能有效克服薄雾干扰,保持地物边界连贯性。

4.3 高分辨率数据集验证
在YYX-OPT-SAR上,尽管SAR图像噪声更显著,OSHFNet仍取得84.92%OA和50.89%mIoU,较次优方法提高2%。分析表明该方法能平衡各类别精度,避免其他模型为提升OA而牺牲特定类别的问题。

这项研究开创性地将异构网络思想引入多源遥感融合领域,通过模态适配的特征提取器和动态融合策略,显著提升了土地利用分类精度。DSConv与VMamba的结合为SAR图像细长地物识别提供了新思路,而GLDG模块的多尺度处理机制对复杂场景具有普适价值。未来研究可进一步探索地物类别关联性对特征融合的影响,并开发弱监督框架以降低对标注数据的依赖。该成果不仅推动了遥感智能解译技术的发展,也为全球土地利用动态监测提供了更可靠的技术支撑。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号