编辑推荐:
为解决乳腺癌早期检测难题,尤其是训练数据受限问题,研究人员开展基于数字病理学的乳腺癌分类研究。他们将低秩适应(LoRA)融入视觉 Transformer(ViT)模型,结果显示该模型在检测乳腺癌时精度更高、训练参数更少,推动了计算机辅助诊断系统发展。
乳腺癌,这个全球女性健康的 “头号杀手”,每年都无情地夺走无数生命。据统计,全球每年新增乳腺癌病例超 230 万,几乎占所有癌症病例的四分之一。在早期,乳腺癌往往悄无声息,没有明显症状,等到患者自己察觉时,病情可能已经发展到中晚期,治疗难度大大增加。这就使得早期检测成为对抗乳腺癌的关键 “武器”。然而,现有的检测方法并不完美。乳腺组织病理学成像虽然是诊断的 “金标准”,但它也面临着诸多挑战。一方面,低质量的成像样本和细微的异常变化很难被精准识别;另一方面,传统的机器学习和深度学习模型在训练时需要大量标注好的数据,可收集这些数据不仅成本高昂、耗时费力,在一些发展中国家,甚至几乎无法实现,这严重限制了相关模型在临床实践中的应用。
在这样的背景下,为了攻克乳腺癌早期检测的难题,来自多个机构的研究人员携手开展了一项极具意义的研究。他们聚焦于如何利用创新的技术手段,提高乳腺癌检测的效率和准确性,尤其是在数据受限的情况下。最终,他们成功开发出一种结合低秩适应(LoRA)和视觉 Transformer(ViT)的新型数字病理学分类方法,为乳腺癌的早期检测带来了新的曙光。该研究成果发表在《EngMedicine》上,引起了广泛关注。
研究人员在这项研究中运用了多种关键技术方法。首先,他们采用了乳腺癌组织病理学图像分类(BreaKHis)数据集,该数据集包含了 9109 张来自 82 位临床乳腺癌患者的显微镜图像,涵盖了不同放大倍数(40×、100×、200× 和 400×),且明确区分了良性(2480 张)和恶性(5429 张)图像。其次,他们构建了基于 LoRA - ViT 的模型架构,将输入的乳腺组织病理学图像分割成固定大小的补丁,经过线性嵌入和添加位置嵌入后,输入到融入 LoRA 的 Transformer 编码器中进行学习。最后,利用准确率、精确率、召回率、F1 分数和马修斯相关系数(MCC)等多种客观指标,对模型性能进行全面评估。
研究结果
- 可训练参数:研究发现,LoRA - ViT 模型在众多深度学习架构中脱颖而出,其可训练参数仅为 0.15 百万,远远少于其他对比模型。例如,与 AlexNet 的 60.0 百万、ResNet - 50 的 25.6 百万相比,LoRA - ViT 模型的参数数量优势明显,这极大地提高了训练效率,优化了计算资源的利用。
- 混淆矩阵结果:在良恶性乳腺癌类型的筛查任务中,LoRA - ViT 模型表现卓越。良性类型的分类准确率高达 99.02%,恶性类型更是达到了 100%,几乎能将所有图像准确分类,为临床实践提供了可靠的诊断依据。
- 初步结果、准确率和损失:无论训练数据量多少和放大倍数如何,LoRA - ViT 模型都能保持接近 100% 的高准确率,显著优于其他先进模型。特别是当训练数据量低于 15% 时,优势更为突出。同时,该模型训练收敛速度快,训练损失下降明显,能更有效地从训练数据中学习。
- 其他相关性能指标:在处理医学成像中常见的不均衡数据集时,LoRA - ViT 模型在精度、召回率、F1 分数和 MCC 等多个指标上均优于其他方法,充分展示了其在复杂数据情况下的强大性能。
- 交叉验证:通过 5 折交叉验证,LoRA - ViT 模型在准确率、加权精度、加权召回率、加权 F1 分数和 MCC 等平均性能指标上,在传统模型中位居榜首,进一步证明了其可靠性和泛化能力。
研究结论与讨论
研究表明,LoRA - ViT 模型成功克服了传统深度学习模型在乳腺癌检测中的诸多难题。它不仅在完整训练数据集上能达到高准确率,在训练数据量低于全量 15% 的情况下,依然能超越其他先进模型。而且,该模型对医学图像低放大倍数的情况适应性强,性能稳健。在计算资源需求方面,LoRA - ViT 模型凭借预训练权重和较少的参数,大大降低了计算成本,训练损失在初始阶段就能快速下降,适合在资源受限的环境中应用。此外,模型将多分支架构简化为单一分支,减少了推理延迟,通过交叉验证有效避免了过拟合,提高了模型的泛化能力。
这项研究的成果意义重大。LoRA - ViT 模型为乳腺癌的早期检测提供了一种高效、精准且资源友好的解决方案,有望推动计算机辅助诊断(CAD)系统的发展,帮助医生更快速、准确地检测乳腺癌,从而提高患者的生存率和生活质量。同时,研究也为未来的相关研究指明了方向,强调了对预训练模型进行适当微调的重要性,以及探索更大模型架构在医学成像领域应用的潜力,这将有助于进一步提升诊断工具的可靠性,为全球抗击乳腺癌的事业注入新的活力。