增强效价-唤醒多模态情感数据集EVA-MED:面向个性化情绪识别的突破性资源

《Scientific Data》:An Enhanced Valence-Arousal Multimodal Emotion Dataset for Emotion Recognition

【字体: 时间:2025年12月16日 来源:Scientific Data 6.9

编辑推荐:

  本研究针对现有情绪识别数据集在唤醒度建模不足和个体差异考量不充分的局限性,开发了集成脑电图(EEG)、心电图(ECG)和脉搏间隔(PI)的多模态生理数据集EVA-MED。通过视频刺激与曼海姆多成分压力测试(MMST)双范式诱发情感状态,并结合心理评估问卷,显著提升了情绪维度建模精度。该数据集为开发个性化情绪识别系统提供了重要资源,有力支撑心理健康监测和人机交互等应用领域的发展。

  
情绪识别技术正在深刻改变心理健康支持、人机交互等领域的服务模式。通过精准捕捉人类情感状态,这项技术有望创造更个性化的用户体验,实现精神健康风险的早期预警。然而现有研究面临两大瓶颈:多数数据集侧重情绪效价(Valence)维度而忽视唤醒度(Arousal)的精细建模;尽管人格特质等个体差异对情绪处理具有显著影响,但缺乏系统整合这些因素的综合数据集。
为突破这些限制,由浙江大学与中国科学院心理学研究所联合团队构建的EVA-MED数据集,通过创新性地融合实验室级生理信号采集与可穿戴设备技术,为情绪计算研究提供了重要突破。该研究采用双实验范式设计:通过正/中/负效价视频诱发差异化情绪状态,同时借助曼海姆多成分压力测试(MMST)激发高唤醒应激反应。这种设计首次实现了对情绪二维空间的全面覆盖,为建立更精确的情感计算模型奠定基础。
研究团队招募64名健康大学生参与者,采用神经扫描(NeuroScan)系统采集64导脑电图(EEG),Biopac MP150系统记录心电图(ECG),并创新性地使用华为手环7采集脉搏间隔(PI)数据。
通过自我评估小人(SAM)量表和心理健康问卷,系统收集了参与者的人格特质、焦虑抑郁水平等个体差异指标。
关键技术方法包括:1)双范式情绪诱导(视频刺激与MMST应激测试);2)多模态生理信号同步采集(EEG/ECG/PI);3)基于Python的信号预处理流程(MNE/NeuroKit2工具包);4)机器学习与深度学习模型验证(SVM/随机森林/1dCNN等);5)10折分层交叉验证评估体系。
情绪诱导有效性验证
通过SAM主观评分分析证实实验范式的有效性。视频刺激成功诱发差异化效价评分:平静状态(M=3.58)、负面(M=2.18)、中性(M=3.52)和正面(M=4.31),方差分析显示组间差异显著(F=119.46, p<0.001)。应激阶段唤醒度评分(M=3.30)显著高于平静基线(M=1.70),t检验确认统计学差异(p<0.001)。
多模态分类性能比较
研究团队系统比较了不同模态数据的情绪识别性能。一维卷积神经网络(1dCNN)在四分类效价识别任务中表现最优,脑电图(EEG)准确率达90.46%,心电图(ECG)为81.60%,脉搏间隔(PI)达73.23%。在二分类唤醒度任务中,相应模态准确率分别为93.44%、86.65%和73.92%。
值得注意的是,尽管可穿戴设备采集的PI数据性能相对较低,但其在长期低侵入监测方面的优势凸显了实际应用潜力。
数据集架构与可及性
数据集包含四个核心模块:1)原始与预处理生理信号(EEG/ECG/PI);2)人口统计学与心理测评问卷;3)通道配置说明文件;4)情绪诱发刺激材料。
所有数据均通过科学数据银行(Science Data Bank)平台开放获取,为后续研究提供完整基准。
该研究通过创新性的实验设计与系统化的数据采集,成功构建了首个同时优化情绪维度建模精度并系统整合个体差异的多模态情感数据集。数据集不仅填补了现有资源在唤醒度建模和个体差异考量方面的空白,更通过实验室级设备与可穿戴技术的结合,为从实验室研究向现实场景过渡搭建了关键桥梁。未来研究可在此基础上扩展人群多样性、提升模型实时性能,最终推动情感计算在心理健康监测、个性化人机交互等领域的深化应用。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号