检测驱动的自适应语义特征加权在多模态图像融合中的应用研究
《Engineering Applications of Artificial Intelligence》:Detection-driven adaptive semantic feature weight for multi-modality image fusion
【字体:
大
中
小
】
时间:2025年10月27日
来源:Engineering Applications of Artificial Intelligence 8
编辑推荐:
本文提出了一种创新的检测驱动自适应语义特征加权方法(DDASFuse),通过引入目标检测反馈机制和自适应语义权重生成模块(ASFW),有效解决了红外与可见光图像融合中语义信息不对称的难题。该方法将高级视觉任务(如目标检测)的语义特征与低层融合过程相结合,通过双编码网络结构和联合损失函数优化,显著提升了融合图像在目标检测任务中的性能表现,为智能医疗影像分析(如肿瘤检测、手术导航)提供了新的技术思路。
在过去的几十年中,多模态图像融合取得了显著进展,大致可分为传统方法和基于深度学习的方法两大类。
本节首先阐述了融合算法的问题定义,随后概述了模型及其核心概念,最后详细介绍了所使用的损失函数。
本节首先介绍了实验设置,接着讨论了消融实验和对比实验的设计与结果。此外,还进行了任务驱动的评估实验,从高级视觉任务的角度评价不同融合方法的性能。
多模态图像融合技术旨在通过整合不同成像方式的图像信息,提升视觉感知的全面性和准确性,以更好地应用于工业、医疗等场景。然而,现有的融合方法通常从两种模态中捕获特征,并未考虑如何将检测特征应用于融合过程。换言之,尽管融合能够达到较高的定量评价指标,但...
虽然所提出的方法在红外与可见光图像融合中表现出色,仍有几个值得进一步探索的方向。首先,我们计划开发一个更通用的任务驱动融合框架,不受特定预训练检测器的限制。这将增强模型在不同下游任务和检测架构中的适应性和鲁棒性。其次,我们将探索轻量级网络设计和推理加速技术。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号