基于CrossMod-Transformer的多模态生理信号融合深度学习框架在疼痛检测中的应用研究

【字体: 时间:2025年08月14日 来源:Scientific Reports 3.9

编辑推荐:

  本研究针对疼痛评估中个体差异大、主观性强等难题,提出了一种融合皮肤电活动(EDA)和心电图(ECG)信号的CrossMod-Transformer深度学习框架。通过结合全卷积网络(FCN)、注意力LSTM(ALSTM)和Transformer模块,实现了87.52%(BioVid)和75.83%(AI4PAIN)的跨数据集准确率,为客观疼痛监测提供了可穿戴设备兼容的技术方案。

  

疼痛是人类健康的重要警示信号,但传统评估依赖主观量表,对婴幼儿、失语患者等群体适用性有限。尽管基于面部表情的自动识别技术取得进展,但易受文化差异和隐私问题限制。生理信号如皮肤电活动(EDA)和心电图(ECG)能客观反映交感神经活动,但现有方法存在模态竞争、长程依赖建模不足等挑战。

针对这一难题,研究人员开发了CrossMod-Transformer框架。该模型采用分层融合策略:首先通过FCN提取局部特征,ALSTM捕捉时序依赖,再经Transformer进行模态内特征整合;最后通过跨模态Transformer实现EDA与ECG的协同分析。在BioVid热痛数据库中,模型对"无痛"与"剧痛"的分类准确率达87.52%,较单模态提升显著。交叉验证显示,该框架在AI4PAIN数据集(使用EDA和血容量脉冲BVP)仍保持75.83%准确率,证实其泛化能力。

关键技术包括:1)基于Butterworth滤波的生理信号预处理;2)FCN-ALSTM-Transformer混合架构的级联训练;3)跨模态注意力机制设计;4)Robust Scaler数据标准化。实验采用10折交叉验证和留一法(LOSO),通过Wilcoxon检验验证显著性差异。

主要研究发现:

  1. 单模态性能对比:EDA单模态最佳准确率86.12%(LOSO),显著优于ECG的65.17%,证实皮肤电反应对疼痛更敏感。

  2. 多模态增益:融合ECG使EDA性能提升1.4%,特异性达89.86%,有效降低假阳性。

  3. 注意力机制解析

    显示,ECG重点关注R波峰(
    ),而EDA注意力均匀分布于信号拐点(
    )。
  4. 计算效率:模型总计算量1.03 GFLOPS,单样本推理时间134ms,满足可穿戴设备部署需求。

这项发表于《Scientific Reports》的研究创新性地解决了多模态生理信号融合中的时序对齐难题。通过分阶段Transformer设计,既保留了模态特异性,又挖掘了交叉互补特征。其临床价值在于:1)为非言语患者提供客观评估工具;2)支持连续疼痛监测;3)推动可穿戴医疗设备发展。未来可扩展整合更多生理参数(如fNIRS),进一步提升复杂疼痛场景的识别精度。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号