
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于注意力增强残差U-Net与直方图均衡化的胃肠出血疾病自动分类模型研究
【字体: 大 中 小 】 时间:2025年08月06日 来源:Biomedical Signal Processing and Control 4.9
编辑推荐:
本文推荐一种新型深度学习框架HARU-Net(Histogram Equalized Attention Residual Gate U-Net),通过直方图均衡化(HE)提升无线胶囊内镜(WCE)图像质量,并创新性地在注意力U-Net中引入残差门控机制,实现胃肠出血(GIB)病灶98.21%的高精度分类。该模型在Kaggle数据集上验证显著优于ResNet等传统CNN架构(85%+),为临床自动化诊断提供新范式。
Highlight
研究亮点
本研究提出两大创新贡献:(1)通过数据增强、图像裁剪和直方图均衡化(HEG)技术实现无监督学习的数据预处理;(2)在经典注意力U-Net(Attention U-Net)架构中,用标准化残差块替换注意力门控模块,该模块由两个连续卷积层与单层标准化卷积构成,显著优化特征提取。
Development of HARU-Net and Mathematical modeling
HARU-Net开发与数学模型
模型基于Kaggle胃肠出血图像数据集(含113例出血与113例正常WCE图像),经数据扩增至4,746张图像后建立数学表征(公式1-3)。其中单幅胃肠图像GAS001被定义为255×255像素矩阵,通过双重求和运算??构建全数据集特征空间。
Experimental setup and analysis
实验设置与分析
采用Python计算机视觉工具包,对WCE图像进行高斯平滑、中值滤波和高通滤波预处理。图8-9展示数据集典型样本,图10-11呈现标注与裁剪结果,数据扩增后每图生成21个衍生样本(图12)。
Proposed HARU-Net implementation results and Discussions
HARU-Net实施结果与讨论
预处理后图像经改进的注意力残差门控机制处理,解码器上采样层整合精细化注意力权重。图13-14对比显示,归一化残差块(含ReLU激活与批标准化)有效提升病灶边界识别能力。
Performance comparison with existing research
与现有研究的性能对比
如表3所示,HARU-Net以98.21%准确率超越Deep CNN(94.42%)、CE-AlexNet(95.33%)等模型,尤其在早期微小出血灶识别中展现显著优势(p<0.01)。
Practical implications of HARU-Net
HARU-Net的实际应用价值
该模型可无缝整合至临床内镜工作站,实现:(1)实时出血病灶报警;(2)量化出血范围;(3)生成结构化报告。其高鲁棒性在低对比度WCE图像中仍保持93%+召回率。
Conclusion and Future enhancements
结论与未来改进
当前模型通过注意力机制与残差学习的协同作用,成功解决胃肠图像分类中特征提取不充分的痛点。下一步将探索多模态数据融合与轻量化部署方案。
生物通微信公众号
知名企业招聘