综述:生物医学时间序列分析中机器学习算法的可解释性与准确性——范围综述

【字体: 时间:2025年05月29日 来源:Biomedical Signal Processing and Control 4.9

编辑推荐:

  这篇综述系统评估了机器学习(ML)在生物医学时间序列(BTS)分析中的可解释性(interpretability)与准确性(accuracy)的平衡问题,重点探讨了心电图(ECG)、脑电图(EEG)等信号的应用现状。文章通过筛选3万篇文献,指出当前研究过度追求深度学习(DL)的高精度而忽视模型可解释性,并推荐决策树(DT)、K近邻(KNN)等白盒模型及广义加性模型(GAM)等折中方案,为医疗高风险领域提供可信赖的算法选择。

  

引言

当代临床决策支持系统依赖高精度机器学习模型,但生物医学时间序列(BTS)分析面临关键矛盾:深度学习模型(如卷积神经网络CNN、视觉变换器ViT)虽在心律失常分类、癫痫预测等任务中表现优异(准确率>95%),却因"黑盒"特性难以获得医学界信任。本文通过系统性文献分析,揭示当前BTS研究更关注模型效率而非可解释性,而医疗领域亟需两者平衡的解决方案。

可解释机器学习方法综述

方法分类与性能
可解释模型分为决策树(DT)、规则学习(RL)、广义线性模型(GLM)等类型。如图1所示,决策树和规则学习模型(如CART、IDS)可解释性最高,但准确率普遍低于85%;而广义加性模型(GAM)如XBM(Explainable Boosted Machine)通过特征交互优化,在阿尔茨海默病EEG检测中达到99%准确率,同时保持临床可理解的决策逻辑。

应用场景分析
筛选出的20项高质量研究表明,KNN和DT是ECG/EEG分析的主流方法。例如:

  • KNN在充血性心力衰竭(CHF)预测中准确率达80%(灵敏度0.77)
  • DT用于睡眠分期准确率93%,优于传统AASM评分规则
    值得注意的是,这些模型依赖特征工程(如HRV时频特征、小波变换),而公共数据集稀缺导致研究集中在癫痫、情绪识别等有限病种。

高精度非可解释模型现状

深度学习主导格局
21项顶尖研究中,95%采用CNN、LSTM或混合架构。典型案例如:

  • ResNet-ECG模型对6种心脏病的F1值达0.93
  • 3D-CANN神经网络在情绪识别中实现97%准确率
    这些模型通过端到端学习自动提取特征,但结构复杂性导致医生无法追溯决策路径。例如,Transformer模型虽在睡眠分期中表现优异(κ=0.83),其注意力机制的可解释性仍存争议。

数据局限性
研究高度依赖MIT-BIH、PhysioNet等公开数据集,导致应用场景同质化。如图A.1所示,80%论文聚焦心律失常、癫痫等5类疾病,而EMG、PPG等信号研究明显不足。

可解释性与精度的桥梁

新兴算法尝试突破传统界限:

  1. 优化决策树:OCT-H(Optimal Classification Trees)通过整数规划生成精简树结构,在创伤预后预测中媲美随机森林
  2. 规则学习进阶:GLRM(Generalized Linear Rule Models)融合逻辑回归与规则学习,特征重要性可量化
  3. 可解释神经网络:NAM(Neural Additive Models)对EEG特征进行逐变量建模,在ADHD检测中准确率99%

结论

当前BTS分析存在"精度优先"的失衡现象,但XBM、OCT-H等新型算法证明两者可协同提升。未来研究应扩大病种覆盖,并建立标准化的可解释性评估框架,以加速ML模型在临床的落地应用。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号