
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于深度学习的反射式共聚焦显微镜图像自动检测技术实现皮肤良恶性病变精准诊断
【字体: 大 中 小 】 时间:2025年08月10日 来源:JID Innovations CS4.0
编辑推荐:
为解决皮肤病变诊断中反射式共聚焦显微镜(RCM)图像解读依赖专家经验的问题,斯坦福大学团队开发了结合CNN-GRU的深度学习模型。研究利用4,391张VivaBlock图像,实现恶性病变分类AUC达0.80,特异性0.91,显著提升诊断效率。该技术为减少不必要活检提供了AI解决方案,发表于《JID Innovations》。
皮肤疾病尤其是皮肤癌的诊疗长期面临诊断效率与准确性的双重挑战。传统活检虽为金标准,却伴随创伤大、耗时长等问题,美国每年约10%的老年人需接受皮肤活检,其中77%为非恶性病变。反射式共聚焦显微镜(RCM)作为新兴非侵入成像技术,能提供媲美组织病理学的分辨率,但其灰度图像解读需要特殊训练,严重制约临床普及。
斯坦福大学医学院(Stanford University School of Medicine)的Jesutofunmi A. Omiye团队在《JID Innovations》发表研究,开发了基于深度学习的自动化诊断系统。该工作创新性地结合卷积神经网络(CNN)与门控循环单元(GRU),模拟皮肤科专家分层解读RCM图像的认知过程。研究纳入845名患者的1,147个病灶共4,391张VivaBlock图像,通过迁移学习策略(先在第三代设备图像预训练,再于第四代数据微调)构建双模型体系:ResNet-18实现表皮、真皮和真皮-表皮连接(DEJ)分层识别,CNN-GRU融合模型完成良恶性分类。
关键技术包括:1)多中心回顾性数据采集(Rao皮肤病诊所2010-2020年数据);2)图像预处理(15,000×16,000像素原始图像降采样至224×224);3)序列建模(每病灶最多11张图像的时序特征分析);4)五折交叉验证优化。
皮肤层检测模型
ResNet-18对表皮和真皮的识别AUC分别达0.71和0.70,但DEJ识别性能较低(AUC 0.57)。研究者指出这与DEJ在浅肤色人群中固有的辨识难度相关,也与标注者间差异有关。
病变分类模型
CNN-GRU架构展现显著优势,测试集AUC 0.80(95%CI:0.57-0.97),特异性0.91。对比实验显示,纯CNN模型AUC仅0.53,证明GRU模块对捕捉病灶多图像序列特征至关重要。通过遮挡图谱可视化,模型关注区域与专家判读的关键诊断区域高度吻合。
讨论部分强调,这是首个针对RCM block图像(非stack图像)的大规模AI研究,其8×8mm大视野能更好反映组织结构。尽管测试集仅19个病灶,但模型在设备代际差异(3rd与4th代Vivascope?)和临床数据不平衡(93.4%良性病变)条件下仍保持稳健。研究为实时RCM诊断提供了可行方案,未来需通过前瞻性研究验证临床适用性。该技术有望缩短诊断周期,降低美国每年约300万例非必要活检的经济负担,对实现皮肤癌早期筛查具有重要意义。
生物通微信公众号
知名企业招聘