基于Conv-XGBoost算法的光电容积描记技术(PPG)在心理压力检测中的应用研究

【字体: 时间:2025年05月27日 来源:Intelligence-Based Medicine CS5.0

编辑推荐:

  本研究针对传统心理压力检测方法成本高、侵入性强的问题,创新性地结合卷积神经网络(CNN)和极限梯度提升(XGBoost)算法,开发出Conv-XGBoost混合模型。通过分析光电容积描记(PPG)信号的时间-频率特征,模型实现了98.87%的训练准确率和93.28%的验证准确率,为职场压力监测提供了非侵入性解决方案。

  

在当今快节奏的社会中,心理压力已成为影响人们身心健康的重要因素。世界卫生组织报告显示,印度每四位员工中就有一位面临工作相关压力,这种情况在全球范围内普遍存在。传统的压力检测方法主要依赖主观心理评估或侵入性生理监测,如心电图(ECG)和脑电图(EEG),这些方法不仅成本高昂,而且实施过程繁琐,难以在日常工作环境中推广应用。

针对这一难题,研究人员将目光投向了光电容积描记(Photoplethysmography, PPG)技术。PPG是一种非侵入性的光学检测方法,通过测量皮肤微血管床中血容量变化来获取生理信号。与ECG相比,PPG信号更容易通过可穿戴设备获取,且不会给使用者带来不适。然而,PPG信号分析面临诸多挑战:信号噪声大、个体差异显著,且压力相关的生理特征难以捕捉。传统机器学习方法依赖人工提取特征,往往难以捕捉PPG信号中的复杂模式。

为了突破这些限制,研究人员开发了一种名为Conv-XGBoost的新型混合模型。该模型巧妙结合了卷积神经网络(CNN)的特征提取能力和极限梯度提升(eXtreme Gradient Boosting, XGBoost)的分类优势。CNN能够自动从PPG信号中提取高层次特征,而XGBoost则利用这些特征进行精确分类。研究采用了27名健康学生的PPG数据集,通过Stroop测试诱发压力状态,收集了54个样本(27个正常状态和27个压力状态)。

关键技术方法包括:1) 使用Savitzky-Golay滤波器进行信号降噪和异常值处理;2) 将PPG时间序列数据转换为二维频谱图以捕捉时间-频率特征;3) 构建四层CNN架构进行特征提取;4) 采用XGBoost进行最终分类。研究比较了多种机器学习模型和深度学习模型的性能。

3.1. Convolutional Neural Network (CNN)
研究人员设计了包含四个卷积层的CNN架构。第一层使用32个3×1的卷积核提取低层次特征,随后依次增加至64、128和256个卷积核以捕捉更复杂的模式。每层卷积后都进行批量归一化和ReLU激活,并采用最大池化和dropout防止过拟合。

3.2. Extreme gradient boosting (XGBoost)
XGBoost部分采用多分类softmax目标函数,通过梯度提升决策树对CNN提取的特征进行分类。模型设置了L2正则化参数,学习率为0.1,有效处理了类别不平衡问题。

  1. Data acquisition and preprocessing
    研究使用Grove耳夹式心率传感器采集PPG信号。数据预处理包括:1) 去除NaN值;2) 使用中位数替换极端值;3) 应用Savitzky-Golay滤波器平滑信号;4) 计算功率谱密度(PSD)和短时傅里叶变换(STFT)生成频谱图。

  2. Experimentation and discussions
    实验结果显示,Conv-XGBoost模型显著优于传统方法:训练准确率达98.87%,验证准确率93.28%,F1分数97.25%。相比之下,传统CNN模型验证准确率为82.63%,ResNet-50为84.12%,而XGBoost单独使用时仅为74.43%。模型对噪声和个体差异表现出良好的鲁棒性。

这项研究的创新之处在于:1) 首次将CNN与XGBoost结合用于PPG信号分析;2) 开发了适用于可穿戴设备的轻量级压力检测方案;3) 实现了职场环境下的实时压力监测。研究结果发表在《Intelligence-Based Medicine》,为心理健康监测提供了新的技术途径。未来工作可探索多模态生理信号融合,进一步提升模型的泛化能力。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号