基于注意力增强残差U-Net与直方图均衡化的胃肠出血疾病自动分类模型研究

【字体: 时间:2025年08月06日 来源:Biomedical Signal Processing and Control 4.9

编辑推荐:

  本文推荐一种新型深度学习框架HARU-Net(Histogram Equalized Attention Residual Gate U-Net),通过直方图均衡化(HE)提升无线胶囊内镜(WCE)图像质量,并创新性地在注意力U-Net中引入残差门控机制,实现胃肠出血(GIB)病灶98.21%的高精度分类。该模型在Kaggle数据集上验证显著优于ResNet等传统CNN架构(85%+),为临床自动化诊断提供新范式。

  

Highlight

研究亮点

本研究提出两大创新贡献:(1)通过数据增强、图像裁剪和直方图均衡化(HEG)技术实现无监督学习的数据预处理;(2)在经典注意力U-Net(Attention U-Net)架构中,用标准化残差块替换注意力门控模块,该模块由两个连续卷积层与单层标准化卷积构成,显著优化特征提取。

Development of HARU-Net and Mathematical modeling

HARU-Net开发与数学模型

模型基于Kaggle胃肠出血图像数据集(含113例出血与113例正常WCE图像),经数据扩增至4,746张图像后建立数学表征(公式1-3)。其中单幅胃肠图像GAS001被定义为255×255像素矩阵,通过双重求和运算??构建全数据集特征空间。

Experimental setup and analysis

实验设置与分析

采用Python计算机视觉工具包,对WCE图像进行高斯平滑、中值滤波和高通滤波预处理。图8-9展示数据集典型样本,图10-11呈现标注与裁剪结果,数据扩增后每图生成21个衍生样本(图12)。

Proposed HARU-Net implementation results and Discussions

HARU-Net实施结果与讨论

预处理后图像经改进的注意力残差门控机制处理,解码器上采样层整合精细化注意力权重。图13-14对比显示,归一化残差块(含ReLU激活与批标准化)有效提升病灶边界识别能力。

Performance comparison with existing research

与现有研究的性能对比

如表3所示,HARU-Net以98.21%准确率超越Deep CNN(94.42%)、CE-AlexNet(95.33%)等模型,尤其在早期微小出血灶识别中展现显著优势(p<0.01)。

Practical implications of HARU-Net

HARU-Net的实际应用价值

该模型可无缝整合至临床内镜工作站,实现:(1)实时出血病灶报警;(2)量化出血范围;(3)生成结构化报告。其高鲁棒性在低对比度WCE图像中仍保持93%+召回率。

Conclusion and Future enhancements

结论与未来改进

当前模型通过注意力机制与残差学习的协同作用,成功解决胃肠图像分类中特征提取不充分的痛点。下一步将探索多模态数据融合与轻量化部署方案。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号