基于Swin Transformer与EfficientNetB2混合架构的早产儿视网膜病变智能诊断系统研究

【字体: 时间:2025年08月31日 来源:International Journal of Imaging Systems and Technology 2.5

编辑推荐:

  为解决早产儿视网膜病变(ROP)图像中病灶特征细微且存在类别不平衡的难题,研究人员创新性地提出融合生成-判别协同机制与多模块特征融合策略的混合深度学习模型。该研究通过结合EfficientNet-B2的局部细节提取与Swin Transformer的全局上下文建模,显著提升细粒度病灶感知能力,实验显示模型准确率达96.71%,特异性97.65%(p<0.05),为眼科人工智能辅助诊断提供了新范式。

  

早产儿视网膜病变(Retinopathy of Prematurity, ROP)作为儿童致盲的首要病因,其早期精准检测对视力干预至关重要。针对ROP图像中微细病灶特征与类别失衡的双重挑战,这项研究构建了创新型混合深度学习框架:通过生成-判别协同机制驱动多模块特征融合,巧妙融合EfficientNet-B2网络对毛细血管异常等局部细节的捕捉优势,与Swin Transformer对视网膜全局病理特征的建模能力。实验数据表明,该模型在ROP分类任务中实现96.71%准确率与97.65%特异性,较传统模型呈现统计学显著提升(p<0.05)。这种"局部显微+全局建模"的双通道架构,为眼科人工智能辅助诊断系统提供了可解释性强的新方案,既能实现早期病变预警,又推动计算机视觉技术在新生儿重症监护(NICU)中的临床转化应用。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号