
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于Swin Transformer与EfficientNetB2混合架构的早产儿视网膜病变智能诊断系统研究
【字体: 大 中 小 】 时间:2025年08月31日 来源:International Journal of Imaging Systems and Technology 2.5
编辑推荐:
为解决早产儿视网膜病变(ROP)图像中病灶特征细微且存在类别不平衡的难题,研究人员创新性地提出融合生成-判别协同机制与多模块特征融合策略的混合深度学习模型。该研究通过结合EfficientNet-B2的局部细节提取与Swin Transformer的全局上下文建模,显著提升细粒度病灶感知能力,实验显示模型准确率达96.71%,特异性97.65%(p<0.05),为眼科人工智能辅助诊断提供了新范式。
早产儿视网膜病变(Retinopathy of Prematurity, ROP)作为儿童致盲的首要病因,其早期精准检测对视力干预至关重要。针对ROP图像中微细病灶特征与类别失衡的双重挑战,这项研究构建了创新型混合深度学习框架:通过生成-判别协同机制驱动多模块特征融合,巧妙融合EfficientNet-B2网络对毛细血管异常等局部细节的捕捉优势,与Swin Transformer对视网膜全局病理特征的建模能力。实验数据表明,该模型在ROP分类任务中实现96.71%准确率与97.65%特异性,较传统模型呈现统计学显著提升(p值<0.05)。这种"局部显微+全局建模"的双通道架构,为眼科人工智能辅助诊断系统提供了可解释性强的新方案,既能实现早期病变预警,又推动计算机视觉技术在新生儿重症监护(NICU)中的临床转化应用。
生物通微信公众号
知名企业招聘