快速领域适应以评估灾害影响:2021年德国洪水后建筑物损坏的遥感监测

《Science of Remote Sensing》:Rapid domain adaptation for disaster impact assessment: remote sensing of building damage after the 2021 Germany floods

【字体: 时间:2025年10月01日 来源:Science of Remote Sensing 5.2

编辑推荐:

  针对灾害响应中遥感建筑损坏评估的领域适应问题,本文提出Siamese多任务融合网络,结合CyCADA、FACT等域适应技术,在2021年德国洪水Ahr valley数据集上验证了不同方法在精度、时间与资源消耗的平衡效果。结果表明,半监督域适应结合灾害强度自动标注策略在性能提升(最高达基准的86%)和资源效率间取得最佳平衡,适用于紧急情况下的快速部署。

  ### 中国科学家视角下的跨领域适应技术在灾害后建筑损毁评估中的应用分析

在灾难发生后,迅速而准确地评估建筑损毁程度对于指导人道主义援助和救援行动至关重要。然而,由于不同建筑环境的多样性以及成像系统的差异,基于遥感数据的快速自动化损毁评估面临着显著的领域转移问题,这导致了预训练模型在新环境中的性能大幅下降。为了将先进的领域适应技术与快速映射的实际需求相结合,本研究评估并提出了几种有效平衡准确率、资源效率和操作适用性的技术。通过引入一种基于Siamese多任务融合网络的实验方法,我们能够量化先验信息对领域适应性能的影响。所有方法均在2021年德国洪水事件的完整标注数据集上进行了基准测试。评估内容包括类别特定的准确率提升、模型对损毁程度的高估或低估倾向,以及在处理时间、人力和计算需求方面的资源消耗。我们还提供了基于场景的推荐,以帮助选择最适合特定条件的方法。所有采用的技术均在短时间内显著提升了模型性能,达到监督学习潜在性能提升的86%。监督领域适应,结合每类极少量标注数据,成为最有效的即时应对方法。而结合灾害强度的半监督领域适应方法,则在保持低时间和人力需求的同时实现了最高的性能提升。纯粹的半监督领域适应方法则因耗时和计算成本较高,因此仅在特定条件下建议使用,例如有足够时间或人力资源不足时。

### 建筑损毁分类与数据集分析

在基于遥感的建筑损毁评估中,建筑损毁的分类是一个关键环节。目前,许多研究采用顺序分类等级,如欧洲宏观地震量表(EMS-98),用于地震灾害的评估。然而,这些等级通常适用于地面实地评估,无法直接应用于遥感数据。因此,本研究提出了一种结合工程标准和遥感数据的分类框架,旨在提高分类的一致性、透明度和可迁移性。通过整合德国洪灾数据集(Ahr valley dataset)和EDAC的分类标准,我们构建了一个统一的建筑损毁描述体系。该体系通过引入洪水范围数据,为建筑损毁程度的识别提供了更精确的依据。

在数据集方面,我们利用了2021年德国洪水事件中的Ahr valley数据集,该数据集包含高分辨率的航空影像,并结合了洪水前的影像数据,以形成双时相数据集。这种数据集的构建方式不仅有助于模型的训练,还能够有效减少空间自相关性对模型泛化能力的影响。同时,我们还引入了xBD数据集,该数据集包含超过85万栋建筑的标注信息,覆盖超过45,000平方公里的卫星影像,用于模型的初步训练。xBD数据集涵盖了多种灾害类型,包括飓风、龙卷风、野火、地震和火山喷发,为模型的泛化能力提供了多样化的训练样本。

在预处理阶段,所有数据均采用通道方式进行归一化处理,并划分为非重叠的256×256像素的图像块。为了增强数据量并减少边界效应,我们引入了第二层图像块,与第一层图像块在垂直和水平方向上偏移128像素,从而在相邻块之间形成重叠区域,保证了特征提取的连续性。此外,为了应对Ahr valley数据集中前后灾害影像分辨率的差异,我们对后灾害影像进行了重采样,以匹配前灾害影像的20厘米地面采样距离(GSD)。这种预处理方式不仅提高了数据质量,还增强了模型在不同分辨率影像上的适应能力。

### 模型架构与实验方法

本研究提出了一种基于Siamese架构的多任务融合网络,该网络能够在前后灾害影像中同时执行语义分割和变化检测任务。模型的核心在于两个共享权重的UNet网络,分别用于前后灾害影像的建筑分割任务。通过共享编码器和解码器权重,网络能够确保在不同时间点上的特征表示一致性。此外,两个网络流从双时相输入中提取深层语义特征,并在Siamese差分解码器中进行融合,以捕捉细微的时间差异,从而帮助模型理解建筑随时间的变化过程。融合后的特征随后被输入到一个轻量级的分类头部,用于对建筑损毁程度进行分类。

在领域适应方法的选择上,我们探讨了半监督和监督两种策略。半监督领域适应方法利用源域的标注数据和目标域的未标注数据,通过自动标注策略,将灾害强度与建筑损毁程度进行关联。我们采用了一种基于洪水范围的自动标注策略,通过计算建筑足迹内被洪水影响的像素比例,自动判断建筑是否受损。该方法在减少人工标注需求的同时,提高了模型对目标域数据的适应能力。监督领域适应方法则通过引入少量目标域标注数据,实现模型的优化。我们分析了标注样本数量与模型性能之间的关系,发现当标注样本数量从1到75增加时,模型性能显著提升,尤其是“Damaged”和“Destroyed”类别。然而,对于“No visible damage”类别,模型性能在初期可能有所下降,但随着标注样本数量的增加,最终能够实现稳定提升。

### 实验结果与分析

在实验结果中,我们发现基于Siamese架构的多任务融合网络在不同领域适应方法下表现出显著的性能提升。特别是结合洪水强度的半监督领域适应方法,在“Damaged”类别中实现了最高的性能提升,而监督领域适应方法在“Destroyed”类别中表现最佳。此外,我们还发现,不同类别在领域适应中的表现存在差异,这与领域转移的分布有关。例如,“Destroyed”类别由于其较为一致的视觉特征,更容易通过半监督方法进行优化,而“Damaged”类别则依赖于目标域的标注数据以实现更高的准确率。

从资源需求的角度来看,监督领域适应方法在短时间内能够实现较高的性能提升,同时减少了对人力和计算资源的依赖。相比之下,半监督方法虽然在“Damaged”类别中表现优异,但其对计算资源和时间的需求较高,因此更适合在资源充足或时间充裕的情况下使用。而基于洪水强度的自动标注策略则提供了一个折中的方案,它在保证性能的同时,降低了对计算资源的依赖,使模型能够在较短时间内完成训练和评估。

此外,我们还发现,不同模型在对建筑损毁程度的估计上存在一定的偏差。例如,基线模型倾向于低估建筑损毁程度,而基于洪水强度的自动标注方法则可能高估损毁情况。这种偏差对实际救援行动可能产生影响,因此在选择模型时需要权衡准确性和资源需求。在本研究中,我们发现监督领域适应方法在准确性和资源需求之间达到了较好的平衡,特别是在标注样本数量有限的情况下。

### 方法选择与应用场景

在实际应用场景中,选择合适的领域适应方法至关重要。对于需要立即行动的灾害响应场景,监督领域适应方法结合少量标注数据是最有效的选择。这种方法能够在短时间内显著提升模型性能,同时减少对人力和计算资源的依赖。对于稍微宽松的时间窗口,结合洪水强度的自动标注策略则提供了更高的性能提升,同时保持较低的资源消耗。这种策略特别适用于资源有限或时间紧张的灾害响应场景,因为它能够利用已有的洪水范围数据,自动推断建筑损毁程度,从而减少人工标注的需要。

另一方面,纯粹的半监督领域适应方法虽然在某些情况下表现良好,但其高计算成本和长训练时间限制了其在实际应用中的可行性。因此,这类方法仅建议在时间充足或人力资源有限的情况下使用。此外,本研究还发现,不同建筑损毁程度在领域转移中的表现存在差异,这为领域适应方法的选择提供了重要参考。

### 未来展望与研究意义

本研究不仅为灾害响应中的建筑损毁评估提供了新的方法论,还揭示了不同领域适应技术在不同场景下的适用性。通过系统地评估半监督和监督方法的性能,我们能够为实际应用中的模型选择提供指导。例如,在资源有限的场景下,监督领域适应方法结合少量标注数据是首选;而在时间较为宽松的情况下,结合洪水强度的自动标注策略则能够实现更高的性能提升。

未来的研究可以进一步探索这些方法在不同灾害类型中的适应性,以及如何优化模型的泛化能力。此外,随着遥感技术的发展,高分辨率影像和多源数据的结合可能为建筑损毁评估提供更丰富的信息。因此,开发更加高效的领域适应方法,以应对不同灾害类型和不同数据来源的挑战,将是未来研究的重要方向。

### 结论

综上所述,本研究提出了一种系统的方法论,用于在灾害响应场景中实现高效、准确的建筑损毁评估。通过引入基于Siamese架构的多任务融合网络,我们能够同时提取建筑足迹和损毁程度信息,并通过不同领域的适应策略优化模型性能。所有方法均在2021年德国洪水事件的完整标注数据集上进行了测试,结果显示,结合洪水强度的自动标注策略在性能和资源消耗之间达到了较好的平衡。监督领域适应方法在短时间内实现了较高的性能提升,而半监督方法则在资源有限的情况下提供了可行的替代方案。未来的研究可以进一步探索这些方法在不同灾害类型和不同数据源中的适用性,以推动更广泛的应用和更高效的灾害响应机制。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号