基于ResNet-18与3D全身摄影术的皮肤癌分类优化:一种可扩展的容积成像分析方法
《International Journal of Imaging Systems and Technology》:Optimizing Skin Cancer Classification With ResNet-18: A Scalable Approach With 3D Total Body Photography (3D-TBP)
【字体:
大
中
小
】
时间:2025年10月19日
来源:International Journal of Imaging Systems and Technology 2.5
编辑推荐:
本文提出了一种基于3D ResNet-18架构的深度学习模型,结合迁移学习和数据增强技术,利用3D全身摄影术(3D-TBP)对良恶性皮肤病变进行高精度分类。该方法在ISIC 2024数据集上实现了99.82%的分类准确率,有效解决了传统2D图像在深度信息缺失和类不平衡方面的局限,为皮肤癌早期诊断提供了可扩展、非侵入性的新方案。
皮肤癌尤其是黑色素瘤,因其发病率和死亡率的持续上升,已成为全球公共卫生的重大挑战。传统的诊断方法如皮肤镜检查和活检具有侵入性、耗时且高度依赖临床经验。先前的研究主要集中于二维皮肤镜图像,这些图像无法捕捉到损伤评估所需的关键容积信息。本研究引入了一种基于ResNet-18模型的新型深度学习架构,通过迁移学习增强,用于恶性与良性皮肤病变的二元分类。该模型在ISIC 2024 3D全身摄影数据集上进行训练,并利用预训练的ImageNet权重实现有效的特征提取。为应对数据集的固有类不平衡并减少过拟合,模型采用了复杂的数据增强和过采样方法。所提出的模型实现了惊人的99.82%分类准确率,超越了许多基于二维图像的替代方案。3D-TBP的使用通过允许容积病变分析,保留了传统二维图像中通常丢失的空间和深度特征,提供了强大的诊断优势。研究结果验证了该方法的临床可行性,为使用三维皮肤成像进行黑色素瘤的早期检测和诊断提供了一种可扩展、非侵入性且高度准确的解决方案。
皮肤癌是全球诊断出的最常见和危险的癌症形式之一。皮肤癌的发病率持续处于非常惊人的水平,且稳步上升。该病症本质上是皮肤细胞的不受控制生长,通常由来自自然源(如太阳)或人工源(如晒黑床)的长时间紫外线(UV)辐射引发。该病症被分类为黑色素瘤和非黑色素瘤皮肤癌(NMSC),其中黑色素瘤最为危险,导致大多数皮肤癌死亡。非黑色素瘤类型,如基底细胞癌(BCC)和鳞状细胞癌(SCC),更为普遍但致命性较低。根据全球癌症统计数据,皮肤癌每年包含超过500万病例,仅黑色素瘤每年就导致超过10万例诊断和约6万例死亡。Primiero等人强调,澳大利亚、新西兰和美国等国家的皮肤癌发病率远高于其他国家,进一步支持了早期检测措施的必要性。
传统上,皮肤癌的诊断依赖于皮肤镜检查、临床评估和组织病理学检查。尽管这些仍是黄金标准,但它们具有主观性、耗时且需要专业知识。皮肤镜图像的解读依赖于临床医生的经验,往往导致不一致的诊断。为了更好地监测随时间变化的病变,全身摄影(TBP)和3D全身摄影(3D-TBP)已被建立,提供了一种非侵入性的跟踪皮肤病变的方法。然而,这种广泛的成像数据无法通过手动方式实际分析。因此,Strzelecki等人建议使用人工智能和深度学习来创建一种自动化且可扩展的皮肤癌检测方法。
深度学习,特别是卷积神经网络(CNN),通过促进从临床和皮肤镜图像中自动识别复杂模式,改变了医学图像分析。迁移学习使AI模型能够利用从ImageNet等大规模数据库的现有知识,并将其调整用于专门的医疗用途,即使在数据有限的情况下也能提高诊断精度。例如,包含超过40万个病变裁剪的SLICE-3D数据集在改进基于AI的分类和分割模型方面发挥了显著作用。
尽管AI驱动的皮肤癌诊断正在改进,大多数模型仍使用二维皮肤镜图片来捕捉病变,主要限制在于它们无法看到病变随时间的扩展,并且缺乏用于适当黑色素瘤分期的深度信息。3D全身摄影(3D-TBP)提供了容积病变跟踪和多个时期的更准确形态学分析。大多数深度学习方法针对二维成像优化,难以处理三维皮肤病变数据。此外,数据集不平衡、多样性短缺(偏好较浅肤色)和图像伪影(毛发、低光照)影响模型的泛化能力。上述挑战表明,皮肤病学AI应用需要更先进的深度学习架构用于三维成像,以提高准确性和鲁棒性。
尽管AI在皮肤病学中不断发展,当前的深度学习模型在处理3D-TBP图像时面临实际的计算和数据相关挑战。Kranke等人指出,先前的工作主要基于二维成像,因此监测病变随时间发展的能力有限——这是检测黑色素瘤时的关键考虑因素。此外,高分辨率三维皮肤扫描的计算需要大量计算资源,且缺乏大规模、标注良好的三维皮肤病变数据集限制了模型性能。另外,类不平衡是一个关键挑战,通常导致识别恶性病变的敏感性降低。为了克服这些挑战,迫切需要能够有效处理容积皮肤病变分析、提高泛化能力并以更高准确性识别恶性病变的AI模型,特别是在真实世界的临床环境中。
本研究优化了3D ResNet18,用于基于3D-TBP的病变分类,利用迁移学习、增强的数据增强和复杂的预处理来提高模型的鲁棒性和分类性能。与先前使用二维皮肤镜图像的基于CNN的方法不同,这项工作利用容积病变评估来改进早期黑色素瘤诊断。此外,加权损失函数增强了模型对恶性病例的敏感性,并减少了数据集不平衡。这些创新的整合创建了一个更可靠和可泛化的基于人工智能的皮肤病学系统,能够评估高维三维皮肤病变数据。
深度学习和AI的最新进展通过改进分类、分割和模型泛化能力,增强了皮肤癌诊断。视觉检查、皮肤镜检查和 histological 调查耗时、基于技能且需要侵入性活检来诊断皮肤癌。深度学习模型提供自动且精确的诊断,帮助临床医生早期发现皮肤癌。数据集不平衡、有限多样性和成像伪影等挑战可能影响模型性能。
ISIC数据集推动了自动皮肤癌检测的发展。根据Useini等人的说法,ISIC 2016数据集的二元分类(非黑色素瘤与黑色素瘤)实现了基于深度学习的皮肤病学模型。Baygin等人指出,ISIC 2017数据集通过包含病变分割增强了特征提取自动化。2018年,ISIC将分类扩展到黑色素瘤、BCC和SCC。ISIC 2019和2020引入了数据增强和预处理,以减少类不平衡并稳定模型。ISIC 2024中的3D全身摄影(3D-TBP)通过将容积监测与病变评估相结合,显著提高了诊断准确性。SLICE-3D数据集中的超过40万个病变裁剪有助于改进用于病变分割和分类的AI模型。
先进的深度学习方法,如卷积神经网络(CNN),在皮肤癌诊断中表现出色。3D ResNet-18以其残差学习技术而闻名。该方法避免了梯度消失并加速了深度网络训练。与CNN不同,3D ResNet18通过跳跃连接保留低层和高层特征。该模型对于3D全身摄影(3D-TBP)和皮肤镜皮肤病变分类非常有效。Mahmud等人发现,3D ResNet18在多类和二元分类中优于VGG-16、InceptionV3和AlexNet。其轻量级设计、预训练的ImageNet权重和微调提高了其区分良性和恶性肿瘤的能力。Rashid等人成功地将基于ResNet的模型的迁移学习应用于ISIC 2024 3D-TBP数据集,在容积病变分析中获得了优异的准确性。皮肤癌分类中的一个关键问题是数据集中的不平衡,其中良性病变数量超过恶性病变。这会使AI算法产生偏差,降低其恶性肿瘤分类的敏感性。有效的数据增强方法,包括随机旋转、翻转和GAN生成的合成数据,已被用于解决此问题。Akter等人发现,对少数类进行过采样改善了恶性和良性病例的平衡性能。这些方法提高了识别能力和对罕见但临床意义重大的恶性病变的泛化能力。
二维皮肤镜图像具有高清晰度但无法跟踪病变。Hameed等人指出,3D-TBP通过允许容积跟踪和病变的详细形态学表征来解决这一限制。3D-TBP检测到皮下病变扩展,这是二维照片无法做到的,使其成为皮肤病学AI应用的新方向。值得注意的是,大多数深度模型是为二维图片设计的,这使得分析三维病变数据具有挑战性。由于数据集多样性,在大多数较浅肤色数据上训练的AI算法可能无法在不同人群中泛化。最近的研究探索了融合模型(FusionEXNet)和AI架构(例如CNN-SVM混合配置)以增强特征提取和分类准确性。Salinas等人的荟萃分析显示,在大规模比较中,AI模型的表现优于皮肤科医生,展示了在计算机辅助皮肤病学中的潜力。当前模型由于计算复杂性和缺乏高质量数据集而难以在三维空间中进行病变分割和分类。这些困难要求AI模型能够有效管理容积病变数据,提高泛化能力,并识别恶性病变。
虽然先前关于皮肤癌检测的研究主要集中于二维成像模态,如皮肤镜检查,但在利用三维成像数据增强皮肤病变的分类和早期检测方面仍存在显著差距。传统的基于二维的深度学习模型虽然有效,但受限于无法捕捉关键的容积特征。为了解决这些限制,本研究引入了一种创新方法,利用专门为使用3D全身摄影(3D-TBP)的容积病变分析而调整的3D ResNet-18架构。我们的方法不仅将ResNet-18扩展到三维数据,还结合了先进的数据增强技术、迁移学习和类平衡策略,显著提高了分类准确性。通过整合这些方法,我们在黑色素瘤检测的敏感性和特异性方面取得了显著改进,特别是对于在二维分析中通常遗漏的皮下生长病变。比较模型、准确性、数据集使用和限制如表1所示。
我们更新了ResNet-18,使用3D全身摄影(3D-TBP)进行皮肤病变分类,以改进传统的深度学习模型。我们的容积三维卷积层捕捉深度和空间特征,需要用于辨别皮肤病变中的微小形态变化,这与先前的二维成像方法不同。这一变化使模型能够轻松处理3D-TBP图片,并保留二维模型遗漏的与深度相关的病变属性。为了解决标记三维数据的缺乏,我们在迁移学习中使用预训练的ImageNet权重。这使得模型能够利用视觉特征并加速训练收敛。对于三维成像,我们使用先进的数据增强方法,包括随机旋转、翻转和像素缩放,以提高模型的泛化能力。过采样和加权交叉熵损失函数平衡良性和恶性实例,以减少数据集中的类不平衡。建议方法的流程图如图1所示。
本研究中使用的数据来自国际皮肤成像协作组织(ISIC)2024挑战赛, specifically on Skin Cancer Detection with 3D Total Body Photography (3D-TBP)。该数据集包含401,059张高分辨率皮肤病变图像,分为两个主要类别:良性和恶性。该数据集反映了显著的类不平衡,有320,847个良性病例和80,212个恶性病例,如表2所述。数据集包含详细的元数据,包括患者人口统计学、病变形态学和临床标签,以 enabling key insights for AI-based analysis。此外,结合先进的成像模态如皮肤镜检查和3D-TBP改善了空间和容积病变评估, enabling better model performance。然而,仍然存在许多挑战,包括类不平衡,这可能扭曲模型学习,需要通过数据平衡方法如过采样和增强来解决。图2显示了本研究中使用的两个类别的示例病变图像,一个恶性和一个良性。这些样本图像代表了用于训练和评估的实际数据集。
预处理管道对于确保ISIC-2024数据集一致并为训练和测试做好准备以提高模型性能非常重要。预处理至关重要,因为它标准化输入数据,增强模型收敛性,并解决类不平衡和缺失值等问题。将所有图像调整大小为128×128像素以符合ResNet-18模型的输入要求是第一个操作。为了实现数据集内的 uniformity,图像被转换为RGB模式,并且像素强度被缩放到[0, 1]范围以加速训练收敛。在元数据预处理期间,缺失值被数值列中的平均值和分类列中的众数替换。分类变量被标记用于深度学习算法。过采样确保了恶性和良性病例的均匀分布,以避免模型中的类偏差。所有三维图像被缩放到128×128×128像素,以确保所有输入体积的一致性。调整大小后保留纵横比以减少 distortion。将像素值归一化到[0, 1]改善了训练期间的模型收敛性。将数据集拆分为训练集、验证集和测试集后,仅对训练集执行过采样以解决类不平衡问题。这消除了数据泄漏并确保了无偏的验证和测试集。
在皮肤病变分类的深度学习模型中,数据增强是提高模型泛化能力和避免过拟合的重要方法。为了对抗皮肤病变的各种外观和方向,我们应用了PyTorch的transforms模块中的许多变换。随机水平翻转以0.5的概率进行,使模型能够学习方向不变特征,这是一个重要因素,因为病变可以对称地出现在身体上。此外,随机旋转图像最多30度确保了在临床条件下采集图像的不一致性被模拟。在预处理期间,我们还将单个图像的像素值标准化在0到1之间,通过确保数值稳定性提高模型在学习期间的收敛速度。这些变换使模型能够遇到许多数据变换,使其更鲁棒,避免过拟合,并提高泛化能力。预处理技术提高了数据集的同质性,并使模型提取更显著的特征。如表3所示。
为了解决ISIC 2024 3D-TBP数据集中存在的类不平衡问题,我们采用了过采样技术来平衡训练集中良性和恶性病变的数量。重要的是,过采样仅应用于训练集。验证集和测试集未以任何方式更改,确保其原始类分布得以保留。此策略有助于减轻可能由合成样本引起的性能指标的任何潜在膨胀。我们使用分层采样来确保训练集、验证集和测试集中的类分布与原始数据集保持一致。具体来说,数据集拆分如下:
- 1.训练集:数据集的80%(320,847个良性和80,212个恶性病例),对其进行过采样以实现平衡的类分布。
- 2.验证集:数据集的10%(40,106个良性和40,106个恶性病例),其保持不变并保持原始类分布。
- 3.测试集:数据集的10%(40,106个良性和40,067个恶性病例),其也保持不变并提供模型泛化能力的真实评估。
这种方法确保使用无偏且具有代表性的测试集评估模型,并且报告的绩效指标(准确性、召回率、精确度、F1分数和AUC)反映了模型在未见数据上的真实性能。数据集拆分的详细细目如表4所示。
3.3 Proposed 3D ResNet18 Transfer Learning Model
迁移学习在建议的二元分类系统中至关重要。由于缺乏注释的三维医学图像,从头开始训练深度神经网络计算成本高昂且容易过拟合。为了解决这个问题,3D ResNet-18模型使用在ImageNet数据集上获得的权重进行预训练。这些通用视觉特征有助于更快收敛和更好泛化。网络的较低层被冻结以保持低级特征表示,而较深层则在ISIC 2024 3D-TBP数据集上进行微调。这使得模型能够从领域特定属性(如病变深度、颜色变化和空间结构)中泛化。与传统的二维模型相比,具有体积表示的迁移学习有助于利用深度敏感特征实现更精确的检测。这种混合方法有助于提高分类准确性,减少训练时间,并增强在实际临床数据中的鲁棒性。图3说明了从三维图像输入到最终分类的完整流程。
- 1.输入层:模型被赋予已调整大小为128×128×128×3(高度×宽度×深度×通道)的三维皮肤病变图像。每个体素中存储的RGB信息描述了病变的空间和纹理特征。
- 2.三维卷积层:初始卷积层使用64个滤波器,内核大小为7×7×2,步长为2。随后进行批量归一化和ReLU激活,生成病变图像的低级体积特征。
- 3.残差块:该架构包含四个主要残差阶段。每个块中有一个3×3×3三维卷积层、批量归一化和ReLU激活。实现了恒等快捷连接以促进稳定的梯度流并防止梯度消失。
- 4.全局平均池化:在最后一个残差块之后,使用全局平均池化层来减小特征图大小。此过程消除了全连接层,有助于减少过拟合并增强泛化能力。
- 5.全连接层:使用一个具有两个输出神经元的密集层进行二元分类,即良性和恶性病变类别。使用softmax激活函数计算最终的类别概率。
- 6.迁移学习策略:为了在标记医疗数据最少的情况下增强学习,使用预训练的ImageNet权重初始化3D ResNet-18模型。较低层被冻结以保留通用视觉特征,但较深层在ISIC 2024 3D-TBP数据集上进行微调,以学习三维中病变特定的模式。
- 7.类不平衡处理:为了处理ISIC 2024数据集中恶性和良性样本之间的不平衡,使用了加权交叉熵损失函数。这确保模型对罕见的黑色素瘤病例给予足够关注。
- 8.正则化和增强:采用数据增强方法如旋转、缩放和镜像来增强泛化能力。还添加了Dropout层以最小化过拟合。
- 9.优化策略:使用Adam优化器和学习率调度器训练模型,该调度器根据验证性能动态设置学习率,增强收敛性和训练稳定性。
3D ResNet-18模型成功提取空间病变特征,并通过利用迁移学习和正则化克服了标记数据稀缺和类不平衡的限制。它非常适合从三维皮肤镜输入进行二元皮肤病变分类。
3.4 Residual Connections and Feature Extraction
在ResNet-18中使用残差连接使模型计算高效并改进了特征学习;这些连接使网络能够绕过多个层并保持关键信息到位。输入特征能够直接流经架构,并且导致收敛问题的梯度消失问题被消除。3D ResNet18的核心单元,称为残差块,由恒等映射组成,以在不同层中维护和增强输入特征,从而在进一步移动时最小化 degradation。这些块优化了标准卷积,提供了深度和效率之间的权衡,同时准确提取特征,无需诸如深度可分离卷积之类的技术来保持轻量。图4显示了残差块的架构,强调了跳跃连接以及跨卷积层和恒等映射的信息流。由于残差学习的能力,3D ResNet18已被证明对医学图像相关的任务特别有益,包括皮肤癌检测,其中捕捉病变模式的细节很重要。考虑到ISIC 2024数据集和3D全身摄影(3D-TBP),所提出的架构保证了细微特征,如病变的不规则边界以及颜色变化,能够被有效学习并利用,以在类不平衡的设置中获得强大的分类。
为了进一步评估所提出模型的泛化能力,对不同患者队列或替代数据集(例如ISIC 2020/2021或其他临床数据集)进行外部验证将是必不可少的下一步。虽然本研究专注于ISIC 2024 3D-TBP数据集,但我们承认需要额外的跨数据集测试以确保模型的性能不会过度拟合到单个数据集。由于目前从外部来源获取标记的三维皮肤病变数据有限,外部验证将在未来的工作中进行。我们旨在在不同队列上测试模型的鲁棒性,以确认其临床适用性并确保其在各种皮肤类型、病变类型和成像条件下表现良好。
本研究使用PyTorch库实现和 refine 3D ResNet-18架构,以在ISIC 2024数据库上执行二元皮肤癌病变分类。所有输入图像被调整大小为128×128像素并进行归一化,以增强模型兼容性和训练过程中的稳定收敛。采用数据增强方法如随机水平翻转和旋转以提高泛化能力并避免过拟合。具有预训练ImageNet权重的3D ResNet-18模型针对二元分类(恶性与良性病变)进行了微调。3D ResNet-18中的最后一个全连接(FC)层被调整为具有256个神经元,使用ReLU激活和Dropout正则化以避免过拟合。为了更好地管理类不平衡,使用了加权交叉熵损失函数。使用Adam优化器,初始学习率为0.001,批量大小为32,模型训练了50个周期。使用准确性、精确度、召回率、F1分数和AUC-ROC测量模型性能。所有实验在Kaggle的云基础设施上执行,利用Tesla P100 GPU进行快速模型训练和预测。我们描述了可训练参数和训练时间,以评估我们的模型在临床应用中的计算可行性。3D ResNet-18模型中约有1170万个可训练参数。使用NVIDIA Tesla P100 GPU,以32的批量训练模型50个周期需要10小时。在相同硬件上,每个图像推断耗时不到1秒,使模型适用于临床诊断。该模型的架构可以针对边缘设备或移动平台进行定制,优化临床计算资源。为了验证我们结果的可信度,我们承认深度学习模型由于随机初始化和数据采样可能会产生有些不同的结果。由于简单性和时间限制,本研究使用了一次实验。我们将使用不同的随机初始化和数据拆分重复研究以加强我们的发现。为了更好地评估模型性能,将对结果进行平均并报告标准偏差。该方法确保结果不是随机的,并提高了可重复性。当前研究中使用的实验配置和超参数的具体细节如表5所示。
在本节中,我们描述了用于评估所提出的皮肤癌检测深度学习算法性能的所有评估指标。鉴于它处理与医疗相关的应用,其中准确性与高敏感性相结合,这些指标是了解所讨论模型是否高质量的相当强大的决定因素。
准确性被称为正确分类的样本(无论是良性还是恶性)占总样本数的百分比。它是模型性能的完整度量,同时处理真阳性和真阴性。公式在方程(1)中定义。
精确度,另一方面,是指实际癌性样本与假设样本总数的比率。此外,在治疗方面,应尽可能减少假阳性,因为它们可能导致不必要的活检或治疗。在方程(2)中定义了公式。
精确度和召回率之间的调和平均值被称为F1分数。它只是平衡它们之间权衡的措施之一,并且需要引入数据集 skewed 并且假阳性和假阴性具有真实想法的地方。公式在方程(3)中定义。
3.6.4 Area Under the ROC Curve (AUC)
对应于不同的阈值选择,AUC衡量模型区分良性和恶性病例的能力。AUC越高,判别能力越好。
3.6.5 Polygon Area Metric (PAM)
2021年,?nder Aydemir开发了多边形面积度量(PAM),一种使用几何将多个分类度量组合为一个值的性能评估度量。在具有不平衡数据集的二元分类任务中,当准确性、精确度、召回率和F1分数可能不足以评估模型时,PAM简化了分类器比较。精确度、召回率和F1分数形成一个多边形,每个度量作为一个顶点在PAM中。计算多边形的面积以评估分类器对正类和负类的区分。PAM分类中考虑了真阳性率和假阳性率,使其对于不平衡数据集有用。公式在方程(4)中定义。
其中是表示精确召回曲线上每个点的精确度和召回率值的坐标,是精确召回空间中的点数,并且被取为闭合多边形的第一个点。我们将PAM作为性能度量添加到我们的研究中,以全面评估模型。鉴于我们数据集的不平衡,PAM提高了模型检测多数类和少数类的能力。它增加了准确性、AUC、精确度、召回率和F1分数,以提供更平衡和更有意义的模型性能评估。
AUC是模型在不同分类阈值下区分良性和恶性数据的能力。方程(5)是公式。
由于高敏感性是医学诊断测试的关键标准,在真阳性率> 80%的高敏感性区域内计算了部分AUC。这将帮助模型识别恶性病变作为假阴性,这是早期检测和正确干预的问题。
ISIC 2024 3D-TBP数据集与建议的3D ResNet18模型表现强劲。测试能够显示高准确性和良性和恶性病例的一致分类。ROC曲线分析和混淆矩阵表明模型很好地区分了病变类型,特别是在类不平衡的情况下。这些结果表明该方法适用于真实世界的皮肤癌检测,并具有纳入临床决策支持系统的巨大潜力。所提出的3DResNet18模型的结果集中于以下:
- 1.评估所提出模型在ISIC 2024 3TBP数据集上的结果。
- 2.
- 3.将结果与最先进的技术进行比较,以验证所提出方法的有效性。
4.1 Proposed Model Performance on ISIC-2024 Dataset
图5说明了3D ResNet-18模型在ISIC 2024 3D-TBP数据集上的训练和验证曲线。训练和验证损失随着每个周期持续减少,其中训练损失从0.073减少到0.009,验证损失从0.021减少到0.003。训练准确性从初始周期的96.5%提高到第五个周期的99.7%。同样,验证准确性从97.0%提高到99.8%,代表了强大的泛化性能。这些发现表明,模型能够一致地区分良性和恶性皮肤病变,并具有在黑色素瘤早期检测中有用的临床应用的潜力。
建议的3D ResNet18模型计算了恶性 and benign skin lesions的准确性、召回率、F1分数、精确度和AUC。该模型对恶性事件的召回率为99.96%,精确度为99.67%,F1分数为99.81%,表明其对基本致癌条件的高度敏感性。良性病变的精确度为99.96%,召回率为99.7%,F1分数为99.83%。其99.82%的分类准确性和100%的AUC表明其区分良性和恶性肿瘤的能力。多边形面积度量(PAM)使用精确度、召回率和F1分数衡量模型的错误阳性和阴性平衡。该模型的高AUC和0.988的PAM分数显示了其在识别恶性和良性病变方面的强大敏感性和特异性。这些结果总结在表6中。
图6表示由3D ResNet18模型在ISIC-2024数据集上生成的混淆矩阵。它显示了模型在预测良性和恶性皮肤病变方面的准确性。在所有预测中,40,053个恶性病例和39,937个良性病例被准确预测。同时,只有130个良性病变被预测为恶性(假阳性),只有14个恶性病变被预测为良性(假阴性)。这些对应于令人印象深刻的总体准确性99.82%和仅0.18%的错误分类率。这样的结果表明模型最小化了错误分类,这对于临床决策制定很重要。它表明3D ResNet18框架在有效利用更高级的特征提取以及通过良好的训练策略减少类不平衡方面的效率。
图7显示了应用于评估3D ResNet18模型皮肤病变分类性能的ROC曲线。ROC曲线说明了在不同判断阈值下真阳性率(敏感性)和假阳性率(1-特异性)之间的比较。
该实验的ROC曲线为1.00。它表示模型能够有效区分恶性和良性病变。它指的是模型在任何阈值水平下区分两个类的能力。ROC曲线帮助医生设置分类水平,使假阴性最少,这对于早期发现癌症至关重要。这表明3D ResNet18模型能够利用 cutting-edge 特征提取和类不平衡,以及强大的训练方法。
3D ResNet-18模型和3D-TBP体积数据的集成将本研究与二维模型区分开来。该模型的准确性和AUC使得在临床环境中能够早期识别黑色素瘤。模型的深度和空间信息优于先前的皮下病变识别方法。迁移学习、先进的数据增强和类平衡有助于模型在有限的三维医疗数据下的泛化和良好性能。该模型对恶性和良性皮肤病变具有高精确度、召回率和F1分数。通过合并精确度、召回率和F1分数,PAM提供了模型性能的完整图景,包括假阳性和假阴性。该度量有助于评估不平衡数据集模型,其中准确性可能具有欺骗性。高AUC和98.8%的PAM分数显示了模型在识别恶性和良性病变方面的敏感性和特异性。这表明3D ResNet-18模型准确可靠地检测早期皮肤癌。说明了模型泛化。经过仔细的类不平衡控制后,仅对训练集进行了过采样,验证集
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号