编辑推荐:
为解决情感识别在人机交互中精度不足的问题,研究人员开展基于可穿戴设备多模态生理信号的情感识别研究。利用 EMOGNITION 数据库,构建 LSTM-GRU 集成深度学习模型,发现三星 Galaxy Watch 和 MUSE 2 平均分类精度超 99%,为情感计算和智能设备交互提供新方向。
情感是人类对内外刺激产生的瞬时综合反应,涵盖语言、生理、行为和神经等多维度响应,深刻影响着思维、决策与身心健康。然而,传统情感检测依赖非生理方法(如面部表情、语言),易受个体掩饰或伪装影响,难以精准捕捉真实情绪状态。随着可穿戴技术的发展,通过连续监测生理信号(如脑电 EEG、心率 HR、皮肤电反应 GSR 等)识别情感成为可能,但现有研究多局限于单一模态或特定设备,且对离散情感(如快乐、悲伤等具体情绪)和维度情感(如效价 Valence - 唤醒 Arousal 二维模型)的综合分析不足,难以满足复杂情感场景的应用需求。
为填补这一空白,印度 Netaji Subhas 理工大学的研究团队联合曼 ipal 理工学院、韩国岭南大学,开展了基于可穿戴设备多模态生理信号的情感识别研究。他们构建了首个同时分析离散和维度情感模型的集成深度学习框架,并利用公开的 EMOGNITION 数据库(包含三星 Galaxy Watch、Empatica E4 手环、MUSE 2 EEG 头带采集的多模态数据)进行实验验证。研究成果发表于《Scientific Reports》,为可穿戴设备在情感计算领域的应用提供了重要参考。
研究采用的关键技术方法包括:
- 多模态数据采集:通过三星 Galaxy Watch(采集 ACC、BVP、HR 等信号)、Empatica E4(采集 EDA、SKT 等信号)、MUSE 2(采集 EEG 信号)同步记录 43 名受试者观看情感刺激视频时的生理信号,涵盖 9 种离散情感和 VA 二维维度的自我报告数据。
- 数据预处理与平衡:使用 SMOTE-Tomek 技术处理类别不平衡问题,通过线性插值实现多模态信号的时间对齐。
- 集成深度学习模型:构建 LSTM-GRU 堆叠集成架构,利用 LSTM 捕捉长时依赖、GRU 提取短时动态特征,实现对时序生理信号的分层特征学习。
研究结果
离散情感识别性能
对 9 种离散情感(如 amusement、anger 等)的分类结果显示,MUSE 2 头带和三星 Galaxy Watch 表现优异,平均分类准确率分别达 99.41% 和 99.14%,其中 “Surprise”“Sadness” 等情感的准确率超过 99.9%。相比之下,Empatica E4 手环仅 49.75% 的平均准确率,可能与其依赖易受运动干扰的 BVP、EDA 信号且缺乏 HR 等关键模态有关。
维度情感模型分析
针对三星 Galaxy Watch 数据的 VA 二维模型分析表明,效价维度平均准确率为 97.81%(如 disgust 达 99.94%),但唤醒维度仅 72.94%。这可能与唤醒状态的生理信号个体差异大、刺激视频诱发的唤醒强度不足有关。
与现有方法对比
与文献中基于 EEG 或单一模态的方法相比,该研究利用可穿戴设备的多模态信号和集成模型,在离散情感识别精度上显著提升(如超越 SVM、CNN 等传统模型),且首次实现了对商用智能手表(如三星 Galaxy Watch)情感识别能力的系统性验证。
结论与讨论
本研究首次通过可穿戴设备多模态生理信号,实现了离散与维度情感模型的联合分析,证明了集成深度学习框架在情感识别中的有效性。三星 Galaxy Watch 和 MUSE 2 头带的高性能表明,结合心血管信号(HR、BVP)和神经信号(EEG)可提升情感识别的鲁棒性,而 Empatica E4 的局限性凸显了模态选择对结果的关键影响。尽管唤醒维度的识别精度有待提高,但研究为开发基于日常可穿戴设备的情感监测系统(如心理健康预警、智能人机交互)奠定了基础,推动了情感计算从实验室向真实场景的转化。未来可进一步结合更多样化的情感刺激、个性化模型优化及可解释 AI 技术,提升系统的实用性和用户信任度。