面向结肠癌诊断的轻量化卷积神经网络组织分类与可视化研究

《Frontiers in Oncology》:A lightweight CNN for colon cancer tissue classification and visualization

【字体: 时间:2025年10月18日 来源:Frontiers in Oncology 3.3

编辑推荐:

  本综述系统介绍了用于结肠癌组织病理学图像分类的轻量化卷积神经网络(CNN)模型,重点阐述了其基于参数化高斯分布的数据清洗策略、仅16.9MB的模型体积以及高达0.990的测试准确率(95%置信区间0.987-0.993)。文章通过六项递进实验验证了模型在NCT-CRC-HE-100K和CRC-VAL-HE-7K数据集上的卓越性能,并创新性地集成聚类、局部二值模式(LBP)、梯度加权类激活映射(Grad-CAM)热力图及3D强度图等多模态可视化技术,显著提升了临床诊断结果的解释性。该研究为资源受限环境下的精准医疗提供了高效可靠的AI解决方案。

  
引言
结肠癌(CC)已成为全球癌症死亡的第二大原因。人工智能(AI)在结肠癌诊断工具中的应用显著提高了其准确性和速度。组织病理学图像在临床环境中被广泛用作检测结肠癌的诊断工具。近年来,人工智能的应用促进了包括乳腺癌、脑癌、肺癌和皮肤癌等不同类型癌症的组织病理学检测和分类任务。在这种情况下,人工智能在组织病理学图像识别中的使用从技术上彻底改变了医疗行业的癌症诊断。
在诊断过程中对结肠癌组织进行分类对于准确识别和区分各种病理状况至关重要。在组织病理学中,区分诸如ADI(脂肪)、TUM(肿瘤)、MUC(粘蛋白)、STR(间质)等组织类型使临床医生能够精确定位异常生长模式,评估肿瘤侵袭性,并就治疗策略做出明智决策。基于人工智能的组织病理学图像分类在临床实践中对于早期癌症检测和准确诊断可能至关重要。通过自动化组织分类,使用从分类模型的预测得出的混淆矩阵,医学专业人员可以获得关于诊断准确性以及易出错区域(错误分类)的统计见解。因此,清晰可靠的分类解决方案有助于改进诊断方案,减少人为错误,并可能加快病理报告的周转时间,最终在后续治疗和疗法过程中带来更好的患者结局。
深度学习(DL)在高级图像识别应用中表现出色。近年来,医学图像分类领域,特别是结肠癌分类,随着深度学习中的卷积神经网络(CNN)的使用取得了显著进展。然而,基于人工智能的医学图像分类的准确性仍有提升空间,以确保更好的诊断精度。近年来,DenseNet、ResNet和Inception V3是对NCT-CRC-HE-100K和CRC-VAL-HE-7K数据集进行分类最广泛使用的预训练模型。虽然预训练的CNN模型在诊断结肠癌组织时更受青睐,但非预训练模型对于特定任务目标具有更好的灵活性。除了模型的泛化能力之外,先前关于结肠癌组织图像分类的研究仅关注单一数据集,且未在其CNN模型中详细说明训练、验证和测试过程中的数据清洗方法。此外,结果可视化的集成提高了临床实践中结果的可解释性。使用轻量级模型对结肠癌组织进行分类将有利于结肠癌诊断的病理决策。轻量级模型解决方案在部署和前端诊断设备的能耗方面更具优势。
本研究的研究目标是:(1)开发并微调一个轻量级的非预训练CNN模型,用于对来自NCT-CRC-HE-100K和CRC-VAL-HE-7K数据集的结肠癌组织病理学图像进行分类;(2)评估其性能,并与过去5年的基准研究进行比较;(3)可视化不同结肠癌组织类别的结果图像。本研究的动机是通过采用轻量级CNN架构配置和统计数据清洗方法,提高AI模型在临床环境中的计算效率。作为辅助诊断工具,结果的可视化也有利于临床医生和病理学家在最终诊断决策中受益。
文献综述
CNN在组织病理学分析中的应用
深度学习方法包括混合学习、端到端学习、迁移学习、可解释人工智能和基于采样的学习。在CNN分类使用之前,Toraman等人于2019年提出使用人工神经网络(ANN)模型,利用傅里叶变换红外(FTIR)信号预测30名结肠癌患者和40名健康人的结肠癌组织存在,该模型达到了0.957的准确率。近年来,大多数医学图像处理和成像应用都由CNN驱动。它们的架构包括数据预处理和准备、数据增强、特征提取,以及最后使用线性或非线性激活函数(例如,ReLU、GeLU等)进行特征分类。CNN目前对组织病理学分析的贡献对乳腺癌、肺癌和脑癌等癌症的检测产生了深远影响。诊断过程中最常用的模型是基于Transformer的架构和混合CNN-Transformer架构用于分类任务。
轻量级CNN架构的优势
轻量级特性对于利用组织病理学图像进行医学诊断的CNN模型至关重要。当涉及到使用该模型的医学应用时,尤其是在病理学家需要快速且精确诊断的情况下,实时预测是必需的。轻量级CNN模型展现出计算效率并提供更快的预测,能够运行在医疗设备或系统中常见的低功耗硬件上,例如移动健康应用和嵌入式设备。轻量级模型的大小限制了其拥有较少的模型参数,通常小于20兆字节。这对于医疗保健的普及至关重要,因为并非所有医疗机构都能获得配备先进GPU的医疗设备或系统。轻量级CNN模型可以在远程地区或资源有限的环境中使用,这些地方难以获得大量的计算硬件。在资源匮乏的环境中,医疗保健专业人员可以利用配备轻量级卷积神经网络模型的移动或便携式诊断仪器来识别结肠癌。由于参数数量减少,轻量级模型对过拟合的敏感性较低,特别是在训练数据集较小的情况下,这在医学图像分析中很常见。结肠癌的组织病理学图像数据集可能不如通用图像分类的数据集那么广泛,因此轻量级模型有助于在有限资源下实现更好的泛化,而不会对训练数据过拟合。
方法
数据收集与预处理
使用CRC-VAL-HE-7K、NCT-CRC-HE-100K及其合并数据集来训练、验证和测试所提出的模型。数据分割策略遵循80-20分布规则。在这些数据集中,分类的类别包括ADI(脂肪组织,由脂肪细胞组成)、BACK(组织病理学图像的背景)、DEB(碎片,对癌症诊断有用)、LYM(淋巴细胞,淋巴系统细胞)、MUC(粘液,组织上的保护层)、MUS(平滑肌)、NORM(结肠正常组织)、STR(与癌症相关的间质组织)和TUM(腺癌的上皮组织)。
原始数据集中存在固有的类别不平衡。本研究采用了加权损失函数和训练期间的数据增强策略,而不是可能丢弃有价值数据的激进预平衡方法。合并后的数据集表现出自然的类别不平衡。为了减轻对多数类的偏见,在训练期间采用了双重策略:(1)类别加权损失函数:分类交叉熵损失根据类别频率进行加权,以更严厉地惩罚对代表性不足类别的错误分类。(2)针对性增强:在训练期间应用实时数据增强(包括旋转(±15°)、水平/垂直翻转和轻微亮度调整),这人为地增加了训练集的多样性并改善了泛化能力。所有输入图像都根据合并集计算的RGB通道均值和标准差归一化到[0, 1]范围。
数据清洗
作为数据预处理策略的关键部分,应用了参数化高斯分布作为数据清洗方法,其中输入x根据均值(μ)和标准差(σ)进行归一化。
高斯(正态)分布是统计学中的一个基本概念。许多自然和与测量相关的现象,包括图像中的像素强度和特征分布,在归一化或标准化后往往遵循正态分布,从而实现一致且集中的样本分布。
模型设计与开发
该模型具有3,514,153个可训练参数和928个非可训练参数,总大小为13.46兆字节,这定义了所提出模型的轻量级特性。一个224 * 224像素的输入组织病理学图像在初始步骤中被标记在GRB矩阵上。然后,卷积层包含4个独立的块,分别具有32、64、128和256个(3, 3)维度的滤波器,使用ReLU激活函数检测输入数据中的特征。ReLU激活函数的输出f(x)计算为f(x) = MAX(0, x)。
随后,在模型训练中采用批量归一化函数来归一化输入,以提高模型训练速度、稳定性和性能,其中归一化的yi根据批次设置的均值(μ)和标准差(σ)计算。
为了减小空间大小,最大池化层在特征图上运行一个(2, 2)维度的滤波器。然后,所提出的模型将输出展平,并在一个4块的全连接层中比较特征,该层使用ReLU激活函数,学习率分别为0.8、0.5、0.3和0.2。最后,输出使用SOFTMAX函数进行多分类,将给定的向量Z转换为类别i的概率。
该模型架构的轻量级特性主要体现在以下几个方面:首先是深度可分离卷积,它对每个输入通道应用单个滤波器,这可以大大减少空间特征提取所需的参数。这种模型分解与等效的标准卷积相比,减少了大约输出通道数倍的计算成本和参数,同时保持了表示能力。其次,设计了一个全局平均池化层,而不是在网络头部使用一个或多个大型、密集的全连接(FC)层。该层通过取平均值将最终卷积块的每个特征图减少为单个值。这些值然后直接馈入最终的softmax分类层。在这种情况下,所提出的模型消除了全连接层中大量的参数来源,并降低了过拟合的风险。第三,模型的宽度(每层滤波器数量)和深度(层数)通过测试进行了精心协同设计,以找到能够从组织病理学图像中捕获必要层次特征的最小可行配置。这避免了简单地堆叠更多层导致参数膨胀的常见陷阱。总而言之,模型总共有4,414,217个可训练和不可训练参数,总大小为16.9兆字节。
性能度量
本研究定量评估所提出的轻量级模型的性能。评估重点包括准确度、分类损失、分类报告以及混淆矩阵。准确度(Acc)是衡量模型在数据集上表现如何的指标。分类损失(L)是真实标签分布(yi)和预测标签分布(yi)在类别(C)上的差异。精确度(P)是指模型预测为阳性的所有实例中真正阳性的比例。召回率(R)是灵敏度,即模型正确识别为阳性的实际阳性实例的比例。特异性(Sp)衡量的是实际阴性实例中被模型正确识别为阴性的比例。F1分数(F1)是精确度和召回率的调和平均数,提供了两者之间的平衡。支持度(S)是数据集中每个类别的实际出现次数。
上述指标为大量实验结果的分析奠定了基础。特别是,准确度被用作与过去5年基准研究进行比较的关键指标。
数据分析
数据预处理
样本分布如图所示,而三个数据集中输入图像的RGB颜色分布的统计视图如表所示。
在VAL-HE-7K中,平均像素值为167.56,表明图像具有中等亮度水平。具体来说,蓝色通道记录为180.84,绿色通道值为136.51,红色通道值为185.34。标准差为44.06,表明图像具有中等程度的对比度。具体来说,蓝色通道的标准差为30.88,绿色通道为42.24,红色通道为30.32。NCT-CRC-HE-100K的平均像素值为168.27,表明与先前数据集相比,图像亮度适中。蓝色通道的平均像素值记录为180.01,绿色通道值为135.94,红色通道记录为188.86。标准差为43.28,表明图像具有中等程度的对比度。具体来说,蓝色通道的标准差为24.09,绿色通道为34.06,红色通道为24.13。因此,通过应用方程2,有106,987张图像有资格进行进一步的模型训练、测试和验证。
在NCT-CRC-HE-100K和VAL-HE-7K的情况下,分布颜色测试表明这两个数据集之间的RGB颜色存在差异。因此,使用合并数据集可以增加数据多样性,以提高所提出模型的泛化能力。在本研究中,合并数据集(VAL-HE-7K和NCTCRC-HE-100K)用于模型训练、测试和验证。
模型性能测试
模型性能测试记录了训练、验证和测试过程中准确度(Acc)和分类损失(L)的学习曲线。表显示了六项广泛实验的结果,这对于理解不同的训练设置(样本大小、数据分割和周期数)如何影响模型在准确度和损失方面的性能至关重要。它提供了关于模型可扩展性和不同数据处理策略有效性的见解,这对于优化深度学习模型以在各种任务上实现最佳性能至关重要。
表提供了不同广泛实验中模型性能的全面概述,并突出了样本大小、数据分割和训练周期数对准确度和损失的影响。结果表明,较大的样本大小通常会导致更好的性能,实验6显示了最佳的整体结果。如表所列,使用NCT-CRC-HE100K、CRC-VAL-HE-7K和合并数据集,并应用80-20规则,逐步执行了六项广泛实验,以测试模型在不同数据清洗和分割条件下的性能。
实验1和2分别使用原始数据集NCT-CRC-HE-100K和CRC-VAL-HE7K进行测试,而实验3使用合并数据集执行。实验4和5使用99%高斯分布(N = 106,987)分别在10个和100个周期中进行。最后,实验6通过Python Optuna进行数据增强和超参数微调策略,在100个周期内进行微调,以稳定模型的学习过程。
实验1 - CRC-VAL-HE-7K:实验1的数据框架中有7,180个来自CRC-VAL-HE-7K的原始数据,遵循80-20规则,共13个周期。结果显示,训练、验证和测试数据的准确度分别为0.879、0.854和0.868,而损失值分别为0.074、0.082和0.080。测试准确度为0.868,损失为0.148,表明结果没有显著变化,但可以通过更多周期进行改进。因此,训练和验证损失开始时较高,并随着周期数的增加而急剧下降。与验证损失相比,训练损失下降更平稳、更一致,验证损失在初始波动后趋于稳定。
实验2 - NCT-CRC-HE-100K:实验2的数据框架中有100,000个来自NCT-CRC-HE-100K的原始数据,遵循80-20规则,共10个周期。训练、验证和测试数据集的准确度分别为0.974、0.967和0.969,而损失值分别为0.020、0.025和0.023。测试准确度为0.969,损失为0.023,表明模型表现良好,但可以通过更多数据、周期数以及应用降噪方法进一步改进。特别是验证损失显示出剧烈的尖峰,这可能表明模型稳定性存在问题或数据中存在异常值影响模型性能。
在实验1和实验2中,有一个共同的趋势是,随着周期数的增加,损失和准确度都有初步的改善。然而,波动的存在,尤其是在验证指标中,表明模型稳定性、过拟合的可能性以及对验证数据集的敏感性方面存在挑战。这些见解可以指导模型的进一步改进,例如调整模型复杂性、实施正则化技术或修改数据预处理和增强策略,以增强模型的鲁棒性和泛化能力。
实验3 - 跨数据集验证:在实验3中,使用合并数据集(包含来自CRC-VAL-HE-7K和NCT-CRC-HE-100K的107,180个样本)训练模型。训练过程持续10个周期,训练准确度为0.959,损失为0.026。验证和测试准确度略低,分别为0.932和0.931,相应的损失分别为0.046和0.048。该实验在六项实验中波动性最大。验证损失有明显的尖峰,特别是在第2、6和8周期附近。训练损失下降更平稳。与实验2相比性能下降,实验3中较低的准确度和较高的分类损失表明,来自不同数据集的样本组合引入了噪声,这是由于数据集之间的域偏移所预期的。然而,模型保持了较高的准确度。这显示了强大的鲁棒性,并表明轻量级CNN学习到的特征在同一更广泛数据源内的不同样本制备中具有可泛化性。
实验4 - 参数化清洗:在实验4中,使用相同的数据集训练模型,但在使用99%正态分布规则去除1%的异常值后,保留106,987行数据。训练持续10个周期,训练准确度为0.960,损失为0.030。验证和测试准确度分别为0.953和0.951,损失值相同为0.037。训练损失开始时较高,并随着周期数稳步下降。验证损失波动较大但总体下降,在第4周期附近有一个明显的尖峰。与实验3相比的性能改进表明,使用参数化清洗方法提高了模型在分类任务中的性能。合并数据集后,由于特征提取的复杂性,特征学习变得具有挑战性。在这种情况下,需要进一步的增强。
实验5 - 增强:在图中,作者将周期数设置为100,以训练、验证和测试模型,以提高学习效果。在使用99%正态分布规则后,清洗后的数据集记录为106,987行。结果,准确度达到0.987,损失为0.059。
实验6 - 数据增强和超参数微调:如图所示,在实验5中观察到训练过程中的波动。在这种情况下,应用了优化策略(数据增强和超参数微调)以提高所提出模型的稳定性和学习效率。微调后,模型占用16.9兆字节,总参数为4,414,217个。结果,在测试过程中准确度达到0.990,损失为0.075。增强数据使得参数较弱的CNN模型能够在一组更加多样化的图像上进行训练。这有助于模型更好地泛化到未来临床环境中的未见图像,这反映在超参数微调后报告的高准确度(0.990)上。对于提出的模型,进行了5折交叉验证,准确度为0.990 ± 0.003(平均值 ± 95%置信区间),95%置信区间(CI)为[0.987, 0.993]。
分类报告
分类报告呈现了一个详细的混淆矩阵,不仅通过正确预测的实例(真阳性)说明了分类性能,还说明了模型的错误分类行为。在统计术语中,混淆矩阵是一个9 ? 9的表格,其中每行代表实际类别(真实标签),每列代表模型的预测类别。
上面的混淆矩阵(见图)显示了分类模型在测试数据集上的代表性性能。从实验5中识别出九个类别,对于每个类别,大多数预测都命中了目标的真实标签。在ADI类别中,所有1165个样本都被正确预测。类似地,所有BACK样本都被准确预测。在DEB的情况下,有1167个样本按其标签被预测,但有3个被预测为BACK,2个为MUS,4个为TUM,10个为STR。LYM预测在1158个实例中有1154个完全正确,分别有1个和3个被错误分类为DEB和TUM。MUC在995个实例中有983个成功预测,各有6个实例被错误标记为STR和TUM。MUS类别在1400个实例中有1394个被正确预测,各有1个被错误分类为ADI、DEB和MUC,以及3个被错误分类的实例为STR。在NORM的情况下,在979个成功预测中有965个,各有1个被错误分类为MUS,4个为MUC,9个为TUM。模型预测正确解释了1071个STR实例中的1028个,有10个实例被错误分类为DEB,14个为MUS,5个为NORM,13个为TUM。最后,在1595个TUM实例中,有1588个被正确分类,各有1个实例被错误分类为MUS,以及各有2个被错误分类为DEB、MUC和NORM。
上表总结了分类报告,包括精确度、召回率、F1分数和使用所提出模型进行实验6的支持度数量。精确度值表明样本图像中100%的ADI、BACK和LYM组织被所提出的模型成功预测并与实际观察结果匹配。其次是精确度值表明99%的预测DEB、MUC、MUS和NORM组织,以及98%的STR和TUM组织与实际观察结果匹配。召回率,也称为灵敏度,是一种统计度量,用于量化数据集中真阳性实例总数中正确预测的阳性病例的比例。在这种情况下,召回值解释了所提出的模型在准确识别9个数据类别中的真阳性的灵敏度。最后,F1分数解释了精确度和召回率的平衡。从图中可以看出,ADI、BACK和LYM在所有九个类别中具有最高的F1分数,值为1。DEB、MUC、MUS、NORM和TUM的F1分数为0.99,其次是STR,F1分数为0.97。总之,所提出的模型在宏观平均和加权平均指标上均表现出99%的准确度。
结果可视化
模型预测的可解释性对于临床采用至关重要。为了提供全面的视觉见解,我们通过局部二值模式(LBP)、聚类、热力图、轮廓图像和强度为每个输入的组织病理学图像生成多方面的可视化,这些是组织病理学数据观察中常用的计算机视觉技术。在图中,来自9个类别的已识别组织病理学图像经过计算机视觉技术处理,以提高分类结果的临床可解释性。
K均值聚类方法用于使用K均值聚类算法(根据经验选择k=3个簇来表示关键组织结构)对不同的片段和区域进行分组。该算法在RGB颜色空间中对图像的颜色特征进行操作,根据颜色相似性将像素分组到不同的区域。使用均匀旋转不变的LBP描述符来描述每个类别图像的纹理特征。LBP图像突出显示了纹理模式和边缘,这对于识别组织学结构至关重要。
然后,使用热力图通过梯度加权类激活映射(Grad-CAM)可视化频率区域以识别浓度。这些梯度被全局平均池化以获得神经元重要性权重,然后用于创建激活图的加权组合以进行迁移学习。然后使用摩尔-邻居跟踪算法在热力图的二进制阈值版本上提取等高线。这些等高线代表了模型识别的高置信度区域的边界,并叠加在原始图像上以描绘病理兴趣区域。最后,应用逐像素灰度强度变换,并解释每个类别组织病理学图像的颜色和亮度。强度视图有助于病理学家在没有颜色变化(例如,来自H&E染色的差异)潜在偏差的情况下评估组织染色密度和细胞结构。
在图中,3D重建图展示了从不同角度重建2D组织病理学输入图像中物体的空间排列和深度。从人类感官对样本图像的观察来看,结肠癌组织类别在颜色、形状、边缘和强度上存在明显的差异。为了提供组织形态和密度的直观表示,为所有九个组织类别的每个样本图像生成了3D强度表面图。这些图可视化像素强度(亮度)在图像上的空间分布,有效地绘制了组织病理学样本的地形特征。
对于每个RGB图像,首先使用亮度公式将其转换为灰度图,该公式根据人类感知灵敏度对颜色通道进行加权。灰度图表示每个像素位置(x, y)的强度值。然后,灰度强度值被视为3D空间中的高度值。因此,2D图像网格(x, y)被转换为3D表面,其中z轴代表像素强度。这创建了一个地形图,其中较亮的区域(例如,细胞核、粘蛋白)显示为峰值,较暗的区域(例如,间质、背景)显示为谷值。使用双三次插值渲染3D表面以平滑表面并增强趋势可视化。将颜色映射应用于z值(强度)以为高度变化提供额外的视觉提示。总之,3D强度图使病理学家能够快速评估细胞结构、纹理和结构模式。
讨论
基准比较
为了将本研究提出的模型与基准进行比较,下表列出了过去5年的基准研究概述,这些研究使用各种CNN架构和不同的组织病理学数据集,精确度值范围从0.869到0.997。
比较将准确度值视为模型性能最重要的指标。在过去5年中,全球研究人员完成了关于结肠癌的组织病理学图像分类。Tasnim等人应用MobileNet V2,在包含12,500张组织病理学图像的实验中达到了0.997的准确度。
专门在NCT-CRC-HE-100K数据集上训练的模型表现出广泛的性能范围(准确度:0.869 – 0.999),其中最高的准确度(0.999)由复杂的混合ResMLP+SwimTran+Xception架构实现。紧随其后的是像dResNet+DeepSVM和Color-CADx这样的模型,它们也达到了顶级性能(≥ 0.993)。Tsai和Tao、Kumar等人、Sharkas和Attallah以及Fadafen和Rezaee的研究获得的模型准确度超过了0.990。这种差异强调,架构创新仍然是在单一、精心策划的数据集上实现高准确度的主要驱动力。
相比之下,在合并的NCT-CRC-HE-100K和CRC-VAL-HE-7K数据集上评估的模型提出了对泛化能力的更严格测试,因为它们必须在来自单独验证集的图像上表现良好。该组的性能强劲且更集中(准确度:0.961 – 0.991)。提出的轻量级CNN模型在该组中达到了0.990的准确度,与同时代的其他模型(如CNNReFeatureBlock(0.991)和具有0.988准确度的多模型集成)相比具有竞争力。
作为比较结果,当前研究改进了CNN在结肠癌组织病理学图像分类中的使用,具有卓越的准确度性能和轻量级特性。当前研究结合了NCT-CRC-HE-100K和CRC-VAL-HE-7K数据集,并应用了参数化数据清洗过程以提高模型学习性能。
病理学解释性可视化
在本研究中,图中呈现的可视化专门设计用于弥合计算特征提取与病理学家使用的形态学解释框架之间的差距。应用的K均值聚类方法作为一种以数据为中心的可视化,与病理学家对结构模式的初始低倍评估相一致,为组织分割提供了客观的、定量的基础,可用于隔离特定区域以进行进一步的定量分析(例如,测量基质百分比)。该算法自动将图像分割为结构上连贯的区域(例如,上皮细胞簇、基质带、管腔空间),以模拟病理学家在组织分析时进行心理分割的方式。
纹理是组织学中的关键区分因素。LBP可视化增强了诊断关键的纹理模式。LBP突出显示的均匀模式对应于正常腺体上皮(NORM)的重复结构、肿瘤腺体(TUM)的无序纹理以及基质组织的纤维纹理。LBP为病理学家在高倍镜下主观获得的组织紊乱提供了客观的验证度量。
Grad-CAM热力图和轮廓可视化是模型中心的解释性可视化方法,加强了病理学家对预测结果的基本推理,并作为经验不足的从业者或高工作量情况下的自动突出显示工具。模型的激活持续定位于显示细胞外MUC池、腺体结构、TUM的核深染以及STR的促结缔组织增生反应的区域。Grad-CAM热力图突出显示的区域直接对应于具有诊断意义的形态学特征。
虽然Grad-CAM突出了模型所关注的区域,但3D强度图有助于解释模型在这些区域感知到了什么。3D强度将2D切片转换为与细胞结构和密度直接相关的3D地形图。3D可视化量化了细胞结构密度的主观评估。3D表面是纹理异质性的直接度量。基质组织(STR)可能具有中等粗糙的纹理,而同质的粘蛋白(MUC)显示为平滑的高原。TUM图像将显示众多不规则的峰值,而ADI图像将显示大的谷值,伴有稀疏、孤立的峰值(代表脂肪细胞核)。3D强度图的使用定量评估了肿瘤的大小、形状和分离。总而言之,上述方法形成了一个多模式的解释系统,用于协作的人机决策过程。
关键发现与启示
从实验结果可以得出以下发现。首先,实验结果表明,合并的数据集、严格的数据清洗方法和有针对性的微调可以改善图像分类性能,从而有助于通过提出的轻量级CNN模型实现更快、更可靠的诊断过程。其次,微调过程产生了显著的增强,表明轻量级CNN不仅高效,而且对于结肠癌组织病理学图像分类非常准确。第三,改进的稳定性和性能指标证明了该模型在资源受限环境(如移动诊断设备)中部署的潜力。最后,详细的分类报告强化了模型在各种组织类别中的鲁棒性,这对于在诊断应用中实现精度至关重要。
在实验6期间,训练和验证指标的急剧改善表明模型快速学习了数据集中最显著的特征。这种快速收敛表明所提出的架构和超
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号