人工智能辅助听诊检测心房颤动:一项在BMC Cardiovascular Disorders发表的新型筛查策略
《BMC Cardiovascular Disorders》:Detection of atrial fibrillation via artificial intelligence-assisted auscultation
【字体:
大
中
小
】
时间:2025年11月09日
来源:BMC Cardiovascular Disorders 2.3
编辑推荐:
本研究针对心房颤动(AF)传统筛查方法效率低、易漏诊的问题,开发了一种基于人工智能(AI)的电子听诊器筛查系统。通过结合ResNet34和12层Vision Transformer(ViT)的AI模型分析心音信号,研究在496例样本中验证了该模型的高性能(验证集AUC达0.93),为解决初级医疗场景中AF筛查难题提供了可靠、便捷的新方案。
在全球范围内,心房颤动(Atrial Fibrillation, AF)是最常见的心律失常,它显著增加中风和心力衰竭的风险,并不可避免地导致患者生活质量下降。尽管AF很普遍,但由于传统筛查方法主要依赖于体格检查和心电图(Electrocardiogram, ECG),常常会漏掉间歇性或无症状的AF发作,导致诊断不足,干预延迟,发病率增加。
面对这一临床挑战,人工智能(Artificial Intelligence, AI)在心血管疾病诊断和治疗中的应用展现出巨大潜力。近年来,基于心音分析的研究取得了显著进展。本研究创新性地开发了一种基于AI的电子听诊器系统,旨在为AF筛查提供一种可靠、易用且可及的新工具。
为了评估这一AI系统的有效性,研究人员开展了一项回顾性研究。他们从福建医科大学附属协和医院心内科收集了550例疑似或确诊AF患者的数据,最终496例高质量的心音记录(其中290例AF,206例非AF)被纳入分析。所有患者均接受了标准12导联ECG检查作为金标准。研究人员使用了一款名为FINZ-PCG的智能电子听诊器进行心音采集,该设备通过蓝牙5.0连接智能手机,采样率为44.1 kHz。采集在安静环境(环境噪声低于32 dB)下进行,记录每位参与者心脏四个瓣膜听诊区的心音,每个部位至少记录30秒。
研究团队为AF检测开发了一个专门的AI模型,其核心是结合了ResNet34和12层Vision Transformer(ViT)的深度学习架构。ResNet残差网络通过学习输入与输出之间的残差来有效提取分类特征,而ViT作为一种基于Transformer的视觉模型,通过将图像分割成块并转换为线性嵌入,利用标准Transformer架构处理,擅长理解全局依赖关系。在模型训练前,心音数据经过了一系列预处理步骤,包括数据转换、截断、带通滤波(20-400 Hz)、下采样(至1000 Hz)、归一化和音频分割(重叠50%的10秒片段)。随后,从分割后的数据中提取了短时傅里叶变换(Short-Time Fourier Transform, STFT)、梅尔频谱图(1024/256点)、梅尔频率倒谱系数(Mel-frequency cepstral coefficients, MFCCs)和双谱分析(Bispectrum analysis)等多种特征,以编码心音信号的时频特性。比较分析发现,ViT网络结合STFT或1024点梅尔频谱图特征时性能最优(准确率均达89.07%)。
本研究为回顾性研究,纳入496例经12导联ECG确认(AF 290例,非AF 206例)的患者心音记录,按6:4比例分为推导组和验证组。使用FINZ-PCG智能电子听诊器采集心音信号。开发了结合ResNet34和12层Vision Transformer(ViT)的AI模型,对经过预处理(包括带通滤波、下采样、归一化、分段)和多种时频特征(如STFT、梅尔频谱图)提取的心音数据进行分析,以区分AF与非AF。模型性能通过灵敏度、特异性、准确率、阳性/阴性预测值及受试者工作特征曲线下面积(Area Under the ROC Curve, AUC)等指标进行评估,并进行了重复性检验(Cohen‘s Kappa)。
496例心音记录被随机分为推导组(298例,AF 174例,非AF 124例)和验证组(198例,AF 116例,非AF 82例)。两组中AF患者的平均年龄均显著高于非AF患者(推导组:65.55±10.90岁 vs 50.31±15.75岁,P<0.001;验证组:65.45±9.68岁 vs 58.5±13.60岁,P<0.001)。AF患者中合并高血压、糖尿病、心力衰竭的比例以及CHA2DS2-VASc评分也显著更高。
AI模型在推导组和验证组均表现出高性能。在推导组中,灵敏度为0.95(95% CI, 0.90-0.97),特异性为0.90(95% CI, 0.83-0.94),准确率为0.92(95% CI, 0.90-0.96)。在验证组中,灵敏度为0.94(95% CI, 0.88-0.98),特异性为0.91(95% CI, 0.83-0.96),准确率为0.93(95% CI, 0.89-0.96)。模型区分AF与正常的AUC在推导组为0.92(95% CI, 0.89-0.96),在验证组为0.93(95% CI, 0.88-0.97)。
对74例样本进行非连续两日的心音采集,记录AI判断结果并进行重复性评估。Cohen‘s Kappa值为0.74(P<0.001),表明模型判断结果具有良好的一致性。
比较分析揭示了不同特征提取方法的性能差异。ViT网络在使用STFT和1024点梅尔频谱图特征时达到了最高准确率(均为89.07%),而ResNet34在使用256点梅尔频谱图时表现最佳(86.43%)。MFCCs在两种架构中表现相对较差(ViT: 76.11%; ResNet34: 69.63%),这可能源于其较低的时间分辨率。STFT和1024点梅尔频谱图显示出卓越的功效(改善11.3-19.4%),这与AF的高频频谱特征相符,并凸显了时频表示在诊断中的价值。
本研究表明,基于AI的电子听诊器作为一种可靠的AF筛查工具具有巨大潜力。该模型在推导和验证数据集中均表现出高灵敏度、特异性和准确性。其性能与一些高端光电体积描记法(Photoplethysmography, PPG)设备相当,但仅依赖于心音图(Phonocardiogram, PCG)信号。与Thompson等人早期的基于CNN的心音模型相比,本方法将AUC从0.85提升至0.93,并首次实现了仅基于PCG信号的准确AF识别。
该技术的优势在于其便携性、易用性和成本效益,使其特别适合在初级医疗机构和普通人群中进行大规模筛查。对于缺乏心血管专科医生或设备的基层医疗机构,以及需要快速诊断的急诊科,AI听诊器可以辅助经验不足的医生进行诊断,减少漏诊和误诊。与依赖心电图的AI方法或昂贵的可穿戴设备相比,AI听诊器对环境因素的敏感性较低,成本更具优势,更易于推广。
研究的局限性包括对安静环境的要求可能影响AF患者的连续数据采集、样本量相对较小以及数据质量存在个体差异和采集噪声的影响。未来的工作应侧重于通过多中心、大样本研究进一步验证模型,并加强数据质量评估和清理流程。
总之,这项研究成功开发并验证了一种结合ResNet和ViT的AI模型,用于基于心音的AF检测,表现出优异的诊断性能和一致性。这为在资源有限的基层医疗场景中实现高效、便捷的AF筛查提供了强有力的新工具,对AF的早期发现和管理具有重要意义。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号