YOLOv9-AGMA:一种用于乳腺超声图像分类的增强型知识蒸馏网络
《Biomedical Signal Processing and Control》:YOLOv9-AGMA: An enhanced knowledge distillation network for breast ultrasound image classification
【字体:
大
中
小
】
时间:2025年10月17日
来源:Biomedical Signal Processing and Control 4.9
编辑推荐:
针对乳腺癌超声图像的精准分类,本研究提出YOLOv9-AGMA轻量级模型,通过移除CBLinear/CBFuse模块构建基础架构,引入自适应门多尺度注意力模块(AMA)增强特征融合能力,并采用通道知识蒸馏优化模型知识传递。实验表明,该模型在保持YOLOv9e高精度的同时,参数量减少至原模型的3.17%,且分类精度提升9.9%。通过LayerCAM可视化技术验证模型可解释性,有效辅助医师定位敏感区域。
在医学影像分析领域,尤其是乳腺癌的诊断中,超声成像技术已经成为一种重要的手段。乳腺癌作为女性中最常见的恶性肿瘤之一,其早期发现和准确分类对于提高治疗成功率和降低死亡率至关重要。然而,超声图像由于其成像原理的特殊性,往往存在边界模糊、噪声干扰、纹理不清晰等问题,这些因素使得临床医生在进行诊断时面临一定的挑战。为了解决这些问题,近年来计算机辅助诊断(CAD)系统逐渐被引入,以提高诊断效率和准确性。
传统的CAD系统主要依赖于人工特征提取和机器学习算法,例如逻辑回归(LR)、支持向量机(SVM)等。这些方法虽然在一定程度上能够实现分类任务,但其性能高度依赖于特征的选择和标注,这不仅需要大量的专家时间,还可能因人为误差导致诊断结果不准确。随着人工智能(AI)技术的发展,深度学习方法逐渐成为CAD系统的核心。深度学习模型,如卷积神经网络(CNN)及其变种,如DenseNet、ResNet、VGG等,能够自动学习特征,并在不同类别和子类别的分类任务中表现出良好的性能。
然而,现有的深度学习模型在乳腺癌的分类和检测中仍存在一些问题。首先,许多模型专注于大范围的恶性肿瘤分类,而未能覆盖详细的BI-RADS 6类分类任务。其次,模型在特征提取过程中往往忽略了中间层特征之间的交互和关联,导致关键信息的丢失。最后,许多模型的参数量较大,计算复杂度较高,难以在边缘设备上部署,限制了其在实际临床中的应用。
针对上述问题,本文提出了一种新的轻量化模型YOLOv9-AGMA,该模型基于YOLOv9e架构进行改进,旨在在保持高精度的同时显著降低参数量和计算复杂度。YOLOv9e网络以其在速度和精度之间的平衡而著称,被广泛应用于需要高效处理的乳腺图像分析任务。然而,YOLOv9e网络在实际应用中存在参数量大和计算复杂度高的问题,这使得其在资源受限的环境中难以部署。
为了应对这一问题,本文首先移除了YOLOv9e网络中的CBLinear和CBFuse模块,构建了一个新的轻量化网络YOLOv9-AGMA,从而减少了计算资源的消耗。同时,本文还提出了一种新的模块AGMA(自适应门控多尺度注意力模块),该模块通过在原始网络中进行通道分割后,动态调整不同尺度特征之间的关联,从而提升模型的准确性。AGMA模块被集成到网络的颈部层(neck layer),以优化特征表示能力,使模型能够更好地学习全局的上下文语义信息,减少由于不合理通道组合导致的信息损失。
此外,本文提出了一种基于密集预测的通道级知识蒸馏(CWD)方法,以增强模型对噪声的鲁棒性。该方法使得学生网络能够从教师网络的病变区域学习关键特征知识,从而提升模型的整体性能。随后,本文使用LayerCAM方法进行模型的自我解释,以增强AGMA模块在定位敏感区域方面的可解释性。LayerCAM方法能够计算显著性图,验证模型的学习效果,并突出显示在BI-RADS 6类分类预测过程中涉及的关键病变定位像素。
实验结果表明,所提出的模型在精度方面提升了9.9%,同时其参数量仅为原始模型的3.17%,计算复杂度仅为原始模型的3.81%,显著降低了计算需求。这使得YOLOv9-AGMA模型更加适合在资源受限的环境中部署,如移动设备或边缘计算平台,从而提高乳腺癌诊断的效率和准确性。
在数据预处理方面,本文对乳腺超声图像进行了处理,以减少噪声和提高图像质量。超声图像由于声波在人体组织中的传播和反射,容易受到斑点噪声、伪影和边界模糊的影响。这些图像质量问题使得模型在特征提取和分类过程中面临挑战。为了应对这些问题,本文采用了多种数据增强和预处理技术,以提高图像的清晰度和可用性。
在轻量化实验中,本文使用了乳腺超声图像数据集(Breast Ultrasound Images On BIRADS-2023v1),该数据集由江南大学计算机科学学院和江南大学附属医院提供,主要用于学术研究。数据集包含6个类别,共计3172张图像。经过排除37张标注不明确的图像后,最终选取了3135张图像用于实验。这些图像的分布和特征为模型的训练和评估提供了丰富的数据支持。
在讨论部分,本文对YOLOv9-AGMA模型的性能和局限性进行了分析。尽管该模型在精度和计算效率方面取得了显著提升,但仍存在一些问题。例如,虽然算法显著减少了参数量,使其更适合在边缘设备上部署,但其在某些复杂情况下的表现仍有待提高。此外,模型在处理不同尺度特征时,仍需进一步优化,以提高其在不同应用场景下的适应能力。
在结论部分,本文总结了YOLOv9-AGMA模型的主要贡献。该模型通过移除原始模型中的部分模块,构建了一个轻量化网络,从而显著降低了计算需求。同时,通过引入AGMA模块,模型在特征提取和分类过程中表现出更强的准确性。此外,基于密集预测的通道级知识蒸馏方法和LayerCAM方法的结合,使得模型在保持高精度的同时,提高了其对噪声的鲁棒性和可解释性。
总的来说,本文提出的YOLOv9-AGMA模型在乳腺癌的分类和检测任务中表现出了良好的性能。通过优化网络结构和引入新的模块,该模型不仅提高了分类精度,还显著降低了计算资源的需求。这些改进使得模型更加适合在实际临床环境中应用,为医生提供了更准确的决策支持。未来的研究可以进一步探索该模型在不同医学影像任务中的应用,以及如何进一步优化其性能和效率,以更好地服务于医疗领域。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号