
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于视觉Transformer架构的心电图图像分析:提升心脏病诊断准确率的突破性进展
【字体: 大 中 小 】 时间:2025年07月20日 来源:Image and Vision Computing 4.2
编辑推荐:
语 为解决传统心脏病诊断依赖人工解读心电图(ECG)的局限性与误判风险,研究人员首次将视觉Transformer模型(ViT、BEiT、Swin-Tiny、DeiT)应用于ECG图像分析。实验表明,BEiT模型在5折交叉验证中达95.9%分类准确率,80-20留出法下提升至96.6%,显著优于传统方法。该研究开创了Transformer架构在ECG图像诊断的先河,为心血管疾病早期筛查提供高精度AI工具,推动个性化医疗与临床决策革新。
心血管疾病作为全球主要死因之一,其早期诊断依赖心电图(ECG)的精准解读。然而,传统方法受限于医生经验差异与高假阴性风险,亟需自动化高精度诊断工具。为此,来自土耳其的研究团队(作者单位未明确标注,从作者姓氏推断为国际团队)创新性地将前沿视觉Transformer架构引入ECG图像分析领域,在《Image and Vision Computing》发表的研究中,首次系统评估了Google-ViT、Microsoft-BEiT、Swin-Tiny及DeiT四种模型对心脏病的诊断效能,为AI驱动的精准心血管诊疗开辟新范式。
研究采用MIT-BIH心律失常公开数据集中的817张临床ECG图像,经预处理拆分为12导联子图后扩展至9804张。通过5折交叉验证及80-20留出法划分数据集,对比四种视觉Transformer模型:ViT基于标准自注意力机制(self-attention),BEiT通过掩码图像建模预训练,Swin-Tiny采用分层移位窗口架构,DeiT则引入师生蒸馏策略。模型均以原始ECG图像为输入,无需人工特征工程,直接输出疾病分类结果。
1. 实验性能
2. 方法对比
3. 临床相关性
本研究开创性地将视觉Transformer架构引入ECG图像诊断领域,证实BEiT、Swin-Tiny等模型可突破传统深度学习方法瓶颈,实现96.6%的分类准确率。其核心价值在于:
团队在讨论中强调,BEiT的掩码预训练机制能有效学习ECG的生理语义表征,而Swin-Tiny的层次化设计契合心电信号的时空特性。未来研究方向包括多中心临床验证、模型轻量化部署及多模态数据(如电子病历文本)融合。此项由Zeynep Hilal Kilimci、Mustafa Yalcin等学者推动的跨领域探索,标志着Transformer医学时代的重要里程碑。
生物通微信公众号
知名企业招聘