
-
生物通官微
陪你抓住生命科技
跳动的脉搏
CW-SwinUNet:一种针对极高分辨率遥感图像的新型语义分割方法
《International Journal of Remote Sensing》:CW-SwinUNet: a novel semantic segmentation approach for very-high-resolution remote sensing imagery
【字体: 大 中 小 】 时间:2025年10月23日 来源:International Journal of Remote Sensing 2.6
编辑推荐:
遥感图像语义分割研究提出基于Swin Transformer的CW-SwinUNet模型,通过LKA-PM模块增强小物体特征表达,WORC模块提升多尺度特征融合能力,Coordswin模块优化边界检测。实验表明模型在Vaihingen和Potsdam数据集上F1达91.8%-93.8%,MIoU达85.2%-87.9%,优于现有SOTA方法。
利用深度神经网络对遥感(RS)图像进行语义分割是遥感智能解释领域中的一个重要研究课题,该技术在城市规划、灾害评估、碳估算等领域具有重要的应用价值。然而,高分辨率的遥感图像带来了数据量大、计算复杂度高、尺度多样以及形状不规则等问题。此外,目标对象之间可能存在远距离的空间关联,这需要利用长距离的上下文信息来进行准确的语义分割。受Swin Transformer强大全局建模能力的启发,我们提出了一种新的遥感图像语义分割网络。Swin Transformer被用作编码器来提取全局特征。为防止编码阶段丢失局部细节,设计了一个LKA-PM(LKA-Patch Merging)模块,通过分解大核卷积来提取局部细节信息,从而增强小对象的特征表示能力。进一步地,为了解码全局和局部特征并获得多尺度信息,设计了一个WORC(Weighted Operation Re-parameterization Convolution)模块,以提高模型对不同遥感图像的适应性和准确性。最后,为了在解码过程中保留空间细节并减少由遮挡引起的边界模糊问题,设计了Coordswin模块来提供坐标信息,提高相似对象的区分能力。实验结果表明,我们的CW-SwinUNet在Vaihingen数据集上取得了优异的分割性能(F1分数为91.8%,MIoU分数为85.2%),在Potsdam数据集上同样表现出色(F1分数为93.8%,MIoU分数为87.9%),超越了其他现有方法。所提出的CW-SwinUNet的源代码可访问地址为:https://github.com/xmy1135/cwswin/tree/main。
生物通微信公众号
知名企业招聘