基于U-Net与Transformer的循环一致性生成对抗网络(UTCR-Dehaze)实现非配对遥感图像去雾

【字体: 时间:2025年06月25日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  为解决遥感图像去雾中特征丢失与色差问题,研究人员提出UTCR-Dehaze方法,结合U-Net与Transformer构建CycleGAN生成器,通过混合级联注意力模块(MCGA)和循环感知一致性损失(Cpidt),显著提升非配对图像去雾效果,实验验证其在细节保留与色彩还原上的优越性。

  

遥感技术广泛应用于城市规划、环境监测等领域,但大气中的雾霾导致图像模糊、对比度降低和色彩失真,严重影响后续的计算机视觉任务,如目标检测和图像分类。传统去雾方法依赖先验假设,泛化能力有限;而基于深度学习的配对图像去雾方法面临数据获取困难的问题。非配对去雾方法虽更实用,但存在特征丢失和色差等缺陷。针对这些挑战,河南理工大学等机构的研究团队在《Engineering Applications of Artificial Intelligence》发表论文,提出UTCR-Dehaze方法,通过结合U-Net与Transformer的CycleGAN框架,实现了高效的非配对遥感图像去雾。

关键技术方法
研究采用循环一致性生成对抗网络(CycleGAN)框架,生成器融合U-Net编码器-解码器(处理高频特征)与Transformer瓶颈层(学习低频特征关系)。设计混合级联组注意力模块(MCGA),结合动态卷积与级联注意力优化局部与全局特征。损失函数引入循环感知一致性损失(Cpidt),整合VGG19网络特征与循环一致性约束。实验基于合成与真实遥感数据集,对比DehazeFormer、UFormer等方法。

研究结果

  1. 网络架构设计:UTCR-Dehaze生成器通过U-Net多尺度跳连传递高频特征,Transformer瓶颈层学习低频结构,显著减少计算量。MCGA模块通过分组注意力与动态卷积增强特征学习。
  2. 损失函数优化:Cpidt损失联合感知损失(VGG19)与循环一致性损失,有效抑制色差并保留细节。
  3. 实验验证:在多个数据集上,UTCR-Dehaze的PSNR、SSIM指标优于对比方法,视觉结果显示更清晰的边缘与自然色彩。

结论与意义
该研究创新性地将U-Net与Transformer结合于CycleGAN框架,解决了非配对去雾中的特征丢失与色差问题。MCGA模块与Cpidt损失的引入进一步提升了细节恢复能力。实验证明该方法在遥感图像去雾中具有显著优势,为实际应用提供了可靠解决方案。未来可探索更多跨模态特征融合策略,以应对复杂大气条件下的图像增强需求。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号