EviVLM:当基于证据的学习方法与视觉语言模型结合用于医学图像分割时
《IEEE Transactions on Medical Imaging》:EviVLM: When Evidential Learning Meets Vision Language Model for Medical Image Segmentation
【字体:
大
中
小
】
时间:2025年11月24日
来源:IEEE Transactions on Medical Imaging 9.8
编辑推荐:
针对医学图像分割中存在的模态差距问题,本文提出基于证据学习的EviVLM模型,通过Evidence Affinity Map Generator(EAMG)和Evidence Differential Similarity Learning(EDSL)机制,系统性地量化并缓解跨模态差异,最终实现多模态有效融合,并在三个公开数据集上验证其有效性,代码已开源。
摘要:
图像表示和文本表示之间的差异,通常被称为“模态差距”,仍然是视觉语言模型(VLMs)在医学图像分割任务中面临的一个重大障碍。这一差距使得多模态融合变得复杂,从而限制了分割性能。为了解决这一挑战,我们提出了基于证据驱动的视觉语言模型(EviVLM)——一种将证据学习(EL)集成到VLM中的新范式,以系统地测量和减轻模态差距,从而提升多模态融合的效果。为了实现这一范式,我们设计了一种证据亲和力图生成器(EAMG),通过学习全局跨模态亲和力图来收集互补的跨模态证据,从而细化特定模态的证据表示。进一步提出了证据差异相似性学习(EDSL)方法,通过对图像和文本证据表示之间的双向相似性矩阵进行偏差-方差分解来收集一致的跨模态证据。最后,利用主观逻辑将收集到的证据映射为意见,并引入基于Dempster-Shafer理论的组合规则来进行意见聚合,从而量化模态差距并促进有效的多模态整合。在三个公开的医学图像分割数据集上的实验结果表明,所提出的EviVLM能够达到业界领先的性能水平。代码可在以下链接获取:https://github.com/QingtaoPan/EviVLM。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号