基于 DARTS 优化 MobileViT 模型与图深度学习的胰腺癌诊断前沿突破

【字体: 时间:2025年02月16日 来源:BMC Medical Informatics and Decision Making 3.3

编辑推荐:

  为解决胰腺癌早期诊断难题,希提特大学的 Yusuf Alaca 开展基于 DARTS 优化 MobileViT 模型与图深度学习的研究。结果显示该模型诊断准确率达 97.33% 。此研究为胰腺癌诊断提供新方案,极具科研价值,推荐阅读。

  
土耳其希提特大学(Hitit University)的研究人员 Yusuf Alaca 在《BMC Medical Informatics and Decision Making》期刊上发表了题为 “Machine learning via DARTS?Optimized MobileViT models for pancreatic Cancer diagnosis with graph?based deep learning” 的论文。这篇论文在胰腺癌诊断领域意义重大,为提高胰腺癌早期诊断的准确性和可靠性提供了新的思路和方法,有望推动医学影像诊断技术的发展,改善患者的治疗效果和生存质量。

研究背景


胰腺癌是全球癌症相关死亡的第四大常见原因,由于其早期无症状且进展迅速,通常在晚期才被发现,早期准确诊断极具挑战。传统的诊断技术,如计算机断层扫描(CT)和磁共振成像(MRI),虽然常用,但受肿瘤大小和位置等因素影响,敏感性和特异性差异较大,诊断结果往往不尽人意。

近年来,视觉 Transformer(ViT)模型和基于图的数据表示在医学成像和诊断领域带来了创新。例如,Smith 等人在 2023 年证明了 ViT 模型可利用注意力机制和数据增强技术在低维医学数据集上取得高性能;Brown 等人在 2024 年报道基于图的数据表示能有效模拟结构关系,提高医学诊断准确性。此外,DARTS 在医学数据集上的架构优化能力也为模型性能提升提供了支持。

然而,深度学习模型在胰腺癌诊断中仍面临挑战。卷积神经网络(CNNs)在二维数据特征提取方面表现出色,但在建模长距离关系时受限,且深层架构计算成本高;ViT 模型虽擅长捕捉长距离依赖,但对大规模数据集需求大,在较小的医学数据集上计算和内存需求难以满足。因此,开发更有效的诊断方法迫在眉睫。

研究方法


  1. 基于图的表示:研究采用 Harris 角点检测算法将胰腺 CT 图像转换为图结构。每个节点代表图像中的显著角点,边表示这些点之间的空间关系。这种转换能编码局部特征(如纹理和边缘)和全局特征(如形状和空间分布),有助于模型更高效地处理数据,提高诊断准确性。
  2. 数据集:使用来自 Kaggle 的胰腺 CT 图像数据集,包含 1418 张高分辨率 CT 图像,涵盖正常和肿瘤胰腺组织病例,图像大小一般为 512×512 像素,DICOM 格式,为胰腺癌诊断和分割研究提供了丰富数据。
  3. Harris 边缘检测算法:该算法用于预处理胰腺 CT 图像,能有效检测显著角点,这些角点是构建图表示的关键节点。与其他边缘检测方法(如 Canny、Sobel、Prewitt)相比,Harris 角点检测在识别稳定精确角点方面更具优势,对噪声鲁棒,能准确捕捉胰腺组织中的空间关系。
  4. 数据准备:对胰腺 CT 图像进行多项预处理,包括调整大小为 224×224 像素、归一化到 [0, 1] 范围、采用旋转、翻转和亮度调整等数据增强技术,以及应用高斯模糊降噪。利用 Harris 角点检测算法进行特征提取,构建图表示,并通过图剪枝提高计算效率和可解释性。
  5. 深度学习模型:研究使用多种深度学习模型,如 ResNet50(一种具有 50 层深度结构,利用跳跃连接解决梯度消失问题的模型)、DenseNet121(各层接收所有前层输入,提高信息流动的密集连接神经网络)、EfficientNetv2-m(通过优化宽度、深度和分辨率实现更好模型扩展性的模型)等,这些模型在图像分类任务中各有优势。
  6. MobileViT 模型:一种结合传统 CNNs 和 Transformer 架构优势的先进深度学习模型。它先通过 CNN 骨干网络提取图像特征,再将特征转换为非重叠补丁,进行线性变换、添加位置编码后输入 Transformer 编码器,最后通过线性变换、上采样和分类头得到输出,在图像分类任务中精度高、效率高。
  7. 可微架构搜索(DARTS):一种用于优化深度学习模型架构的先进方法。它定义连续搜索空间,使架构参数优化可微,提高搜索灵活性和效率。通过初始化搜索空间、定义超网、随机初始化架构参数,在训练过程中采样小数据集更新网络权重和架构参数,最终选择权重最高的操作确定最终架构。
  8. 分类算法:采用多种先进分类算法优化胰腺癌诊断模型性能,包括 K - 最近邻(kNN,一种基于最近邻分类数据点的非参数方法,适用于小数据集)、支持向量机(SVM,基于最优分离超平面分类数据点,对非线性数据和高维数据集有效)、随机森林(RF,由多个决策树组成的集成算法,准确性高、泛化性强)和 XGBoost(基于梯度提升决策树的强大分类算法,计算快速、性能高)。

研究结果


  1. 性能指标:通过实验计算准确率、精度、召回率和 F1 分数等性能指标评估模型。这些指标基于混淆矩阵计算,混淆矩阵包含真阳性(TP,正确分类为胰腺癌的样本数)、真阴性(TN,正确分类为正常的样本数)、假阳性(FP,错误分类为胰腺癌的正常样本数)和假阴性(FN,错误分类为正常的胰腺癌样本数)四个基本组件。
  2. 迁移学习模型性能:对各种 CNN 模型在转换为图表示的胰腺 CT 数据集上的性能进行测试。结果显示,ResNet50 模型性能平衡,DenseNet121 模型准确率和召回率较高,EfficientNetv2-m 模型准确率和召回率也表现出色,RepghostNet-100 模型性能相对较低,InceptionNext-Base 模型召回率高但精度低,EfficientNet-B3 模型平均性能中等。
  3. Vision Transformer 模型性能:测试各种 Vision Transformer 模型在 Image2Graph 胰腺 CT 数据集上的性能。DeiT3-Small 模型性能一般,FastViT_ma36 模型性能平衡,FastViT_sa12 和 FastViT_sa24 模型准确率和召回率高,MobileViTv2_150 模型表现中等,MobileViTv2_200 模型召回率较低,其他模型也各有不同表现。通过 ROC 曲线和 AUC 值评估,FastViT 和 Twins-Pcpvt 模型在胰腺癌诊断中表现最有效。
  4. 提出模型的性能:对 DARTS 优化的 MobileViTv2_150 和 MobileViTv2_200 模型进行测试,结合不同分类算法。结果表明,XGBoost 算法在两个模型中均表现最佳,准确率达到 97.33%,KNN 算法也有较高性能,准确率为 96.6%。与传统模型相比,提出的 MobileViT 模型在所有性能指标上提高了 5 - 7%,显示出强大的诊断能力。

研究结论与讨论


研究提出的结合 DARTS 优化的 MobileViT 模型、基于图的数据表示和 XGBoost 算法的方法,在胰腺癌诊断中取得了显著进展,准确率和 F1 分数达到 97.33%,超过了传统的 CNN 和 Vision Transformer 模型。基于图的表示增强了数据丰富度,使模型能更有效地捕捉复杂空间特征;DARTS 确保了模型架构的优化和适应性;XGBoost 显著提高了分类的准确性和可靠性。

与以往研究相比,该模型优势明显。Smith 等人使用 ResNet50 的准确率为 82.04%,Johnson 等人使用 DenseNet121 的准确率为 90.78%,Doe 等人使用 EfficientNetv2-m 的准确率为 92.96%,Miller 等人使用 FastViT_sa12 的准确率为 93.45%,Brown 等人使用 FastViT_sa24 的准确率为 92.48%,而本研究模型通过改进数据表示和架构优化,大幅提高了诊断准确率。

该模型在早期胰腺癌诊断中具有巨大潜力,有望降低临床假阳性和假阴性率,改善患者治疗效果。例如,其高准确率能及时诊断胰腺癌,便于及时治疗,提高手术或化疗成功率。此外,模型处理图数据的能力提供了更丰富信息,动态结构使其适用于多种数据集,不仅可用于胰腺癌诊断,还可能应用于其他癌症检测,具有广阔的临床应用前景。

未来研究将聚焦于通过序列特征分析和聚类技术扩展模型能力,使其能分析时间模式、更有效地分组数据,支持个性化诊断和治疗。同时,将模型应用扩展到 MRI 和超声图像,进一步研究胰腺肿瘤特征,并在真实临床环境中评估模型,测试其在更大数据集上的性能,以提高临床适用性和影响力。

这篇论文为医学图像分析领域的未来研究奠定了坚实基础,其方法有望扩展到其他医学诊断应用中,通过提高诊断准确性和可靠性,为改善患者预后、推进临床诊断进程带来新的希望。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号