使用自适应特征提取器在医学图像中进行可解释的基于原型的图像分类

《Computers in Biology and Medicine》:Explainable prototype-based image classification using adaptive feature extractors in medical images

【字体: 时间:2025年11月22日 来源:Computers in Biology and Medicine 6.3

编辑推荐:

  原型分类器可解释模型优化及在医学图像中的应用 | ExPIC方法 | CDE损失函数 | 聚类优化 | 特征提取 | 降维技术 | 准确率提升 | 模型压缩 | 医学图像分类 | 可解释人工智能

  在人工智能和机器学习领域,近年来可解释性人工智能(Explainable AI, XAI)成为研究的重点,尤其是在医疗等对模型可解释性要求较高的领域。传统的深度神经网络(Deep Neural Networks, DNN)在图像分类任务中表现出色,但其“黑箱”特性使得人们难以理解其决策过程,这在医疗诊断等关键任务中可能带来严重的伦理和实践挑战。为了克服这一问题,研究人员提出了多种可解释的模型,其中基于原型的分类器(Prototype-based classifiers)是一种重要的方法。这些模型通过使用数据集中的代表性样本作为原型,利用相似性准则对新输入进行分类,其决策过程本质上是可解释的,因为其分类依据的是与原型之间的相似性。然而,现有基于原型的分类器在实际应用中面临一些挑战,例如对特征提取器的依赖性较强,可能无法适应特定数据集的特性,从而影响模型的性能和可解释性。

为了解决上述问题,本文提出了一种新的方法,称为Explainable Prototype-based Image Classification(ExPIC),旨在提升基于原型的图像分类器的性能和可解释性。ExPIC方法的核心思想是引入一种名为Cluster Density Error(CDE)的新型损失函数,通过优化特征提取器的性能,使得其能够保留最具有代表性的特征向量。同时,该方法还结合了主成分分析(Principal Component Analysis, PCA)技术,以降低特征向量的维度,从而减少计算复杂度并提高模型的效率。实验结果显示,ExPIC方法在四个医疗图像数据集上均表现出色,不仅在分类准确率上优于其他原型分类器和非可解释性学习方法,还显著减少了所需原型的数量,从而提升了模型的可解释性。

本文的结构主要分为五个部分。首先,介绍了可解释人工智能的背景及其在医疗领域的重要性,包括深度学习模型在医学图像分类中的应用及其面临的解释性问题。其次,回顾了现有的可解释性方法,包括后置解释方法(Post-hoc methods)和内生可解释性方法(Intrinsically Interpretable methods),并重点讨论了基于原型的分类器的原理和应用场景。接着,详细描述了ExPIC方法的构建过程,包括增强的特征提取策略、CDE损失函数的设计、PCA维度降维等关键步骤。随后,通过在四个医疗数据集上的实验,验证了ExPIC方法的性能和可解释性,展示了其在分类准确率和解释性方面的优势。最后,总结了研究的主要发现,并强调了构建可解释性人工智能模型在医疗领域的重要意义。

在医疗图像分类任务中,基于原型的分类器具有显著的优势。它们能够通过分析输入图像与训练集中代表性样本(即原型)之间的相似性,提供直观的解释。然而,传统的基于原型的分类器往往依赖于预训练的卷积神经网络(Convolutional Neural Networks, CNNs)作为特征提取器,这可能无法充分适应特定数据集的特征分布,从而影响原型的代表性。为了解决这一问题,ExPIC方法采用了一种新的训练策略,通过CDE损失函数对特征提取器进行微调,使其能够更好地识别具有代表性的特征向量。同时,通过PCA降维,进一步优化了模型的性能,减少了计算资源的消耗。

在实验部分,ExPIC方法被应用于四个不同的医疗图像数据集,包括用于检测新冠肺炎的CT图像数据集(COVID-CT)、用于肺部疾病分类的胸片数据集(COVID-QU-Ex)、用于乳腺癌分类的CBIS-DDSM数据集以及用于乳腺影像分类的INbreast数据集。实验结果表明,ExPIC方法在分类准确率上表现出色,达到了95.01%的准确率和0.992的AUC值,同时显著减少了所需原型的数量,达到了98.38%的减少幅度。这些结果表明,ExPIC方法不仅在分类性能上优于其他方法,还在可解释性方面表现出色,能够为医疗专家提供清晰的解释,从而增强他们对模型决策的信任。

在ExPIC方法中,CDE损失函数是一个关键的创新点。该损失函数旨在最小化图像在潜在空间中的表示与正确原型之间的距离,同时最大化其与错误原型之间的距离。这种设计使得模型能够更准确地分类图像,并且在解释性方面更加直观。此外,CDE损失函数还引入了一个可调节参数α,该参数可以调整模型对错误原型的敏感度,从而在不同应用场景中提供灵活性。实验表明,通过优化α值,ExPIC方法能够实现更高的分类准确率,并且在解释性方面保持良好表现。

PCA降维技术在ExPIC方法中也起到了重要作用。通过将高维特征向量投影到低维空间,不仅降低了计算复杂度,还增强了模型的可解释性。在实验中,发现当降维后的特征向量数量达到一定阈值时,模型的分类准确率趋于稳定,同时原型的数量显著减少。这种优化使得ExPIC方法能够在保持分类性能的同时,减少计算资源的消耗,从而提升模型的实用性。

此外,ExPIC方法还提供了一种优化策略,允许在训练过程中逐步解冻CNN的层,以提升其作为特征提取器的性能。这种方法使得模型能够更有效地学习数据的特征,同时减少对大量原型的依赖。实验结果表明,随着更多层被解冻,模型的准确率逐步提高,而所需的原型数量则显著减少。这种策略在医疗图像分类任务中具有重要意义,因为减少原型数量不仅降低了计算负担,还提高了模型的可解释性。

在可解释性方面,ExPIC方法通过展示每个输入图像与最相似原型之间的关系,为医疗专家提供了直观的解释。这种解释不仅有助于理解模型的决策过程,还能帮助识别潜在的偏差和错误。例如,在新冠肺炎检测任务中,模型能够通过展示与输入图像最相似的原型,为医生提供更清晰的决策依据,从而增强其对模型的信任。

总的来说,ExPIC方法为基于原型的图像分类器提供了一种有效的优化策略,使得其在保持高分类准确率的同时,显著提升了模型的可解释性。该方法不仅适用于医疗图像分类,还可能扩展到其他需要可解释性的任务中。通过引入CDE损失函数和PCA降维技术,ExPIC方法为构建高效且可解释的深度学习模型提供了新的思路,推动了人工智能在医疗领域的应用。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号