基于双代理对比聚焦损失的域泛化方法研究:跨域特征对齐与类间分布校准

【字体: 时间:2025年06月06日 来源:Expert Systems with Applications 7.5

编辑推荐:

  针对域泛化(DG)中跨域特征分布差异大、类间关系建模不足的问题,研究人员提出双代理对比聚焦损失(DCL Loss),通过随机代理与均值代理协同优化类中心表示,结合域感知对比学习增强跨域样本聚合。在PACS等5个基准数据集上实现SOTA性能,为跨域特征学习提供新范式。

  

在深度学习广泛应用于计算机视觉的今天,一个隐藏的"阿喀琉斯之踵"逐渐浮现:当模型面对与训练数据分布迥异的新场景时,性能往往会断崖式下跌。这种现象被称为"域偏移"(Domain Shift),就像让习惯城市道路的自动驾驶系统突然面对乡村泥泞小路。医疗影像分析、跨区域气象预测等关键领域尤其深受其害——我们不可能为每个新医院、新城市都重新收集标注数据。

传统解决方案如域适应(DA)需要目标域数据参与训练,这在实际中往往难以实现。为此,域泛化(Domain Generalization, DG)应运而生,其目标是从多个源域中学习通用表征,直接泛化到完全未知的目标域。然而现有方法面临双重困境:对比学习方法对同类跨域样本的聚合力度不足,如图3(a)所示,汽车图像在不同光照条件下仍分散分布;而基于代理(Proxy)的度量学习方法又过度依赖随机初始化的类中心,早期训练中会产生误导性偏差。

来自国内的研究团队在《Expert Systems with Applications》发表的研究中,创新性地将对比学习与代理学习融合,提出双代理对比聚焦损失(Dual-proxies Contrast-focused Loss, DCL Loss)。该方法通过两个关键技术突破:一是构建随机代理组和均值代理组的双代理系统,前者动态优化类内分布,后者稳定校准类间关系;二是引入域感知的对比加权机制,对跨域同类样本施加更强吸引力。在PACS、VLCS等5个基准测试中,该方法以平均2.3%的优势超越现有SOTA方法。

关键技术方法包括:1) 双代理架构设计:随机代理组遵循N(0,1)分布并通过反向传播优化,均值代理组直接计算样本统计量;2) 域感知对比加权:对同类跨域样本对赋予更高权重系数;3) 分层优化策略:样本级关注跨域特征对齐,类级聚焦分布校准。所有实验均在标准DG评估协议下进行,采用ResNet-50作为基准网络。

主要研究结果

Domain Generalization现状分析
通过系统梳理现有DG方法,指出数据增强、领域对齐和元学习三大技术路线均存在局限性。特别揭示对比学习方法中"同类跨域样本吸引力不足"的核心问题,如图3所示,传统对比损失对汽车图像在不同域中的特征聚合效果有限。

Motivation创新点
发现DG中独特的"类-域伪相关"现象:跨域同类样本的距离可能大于同域异类样本。提出域感知对比学习应具备"双重判别力"——既要区分类别又要判别域差异。

Experimental Results验证
在OfficeHome数据集上,DCL使跨域分类准确率提升4.7%。消融实验显示:单独使用随机代理时早期训练波动明显,而增加均值代理后训练曲线稳定性提升38%。

Limitations and Future Work
指出当前方法在DomainNet等大类数据集上存在计算效率问题,未来拟通过代理分组采样策略优化。同时揭示域样本量不平衡会导致均值代理偏移,需开发自适应校准机制。

结论与展望
该研究通过有机融合对比学习与代理学习的优势,构建了具有层级优化能力的DCL框架。随机代理与均值代理的协同机制,既保留了监督信息的充分利用,又确保了类中心估计的稳定性。实验证明该方法在保持类内紧凑性的同时,能有效扩大类间边际,如图2所示的特征分布可视化结果。

这项工作的深远意义在于:1) 为DG任务建立了新的评估基准,系统验证了各类度量学习技术的适用性;2) 提出的双代理机制可扩展至长尾分类等不平衡学习场景;3) 开源的代码实现为后续研究提供了重要基线。正如作者在结论部分强调,这种"宏观分布对齐与微观语义挖掘"相结合的研究范式,将为解决更复杂的开放域泛化问题开辟新路径。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号