跨情境情绪解码:多情境情感EEG数据集EmoEEG-MC的构建与应用

【字体: 时间:2025年07月05日 来源:Scientific Data 5.8

编辑推荐:

  为解决单一情境下EEG情绪解码模型泛化性不足的问题,南方科技大学团队构建了首个多情境情感EEG数据集EmoEEG-MC,涵盖视频诱导与想象诱导两种情境下的7类情绪(含正/负/中性)。通过SVM-L1模型验证,该数据集在跨情境二元分类中达66.7%准确率,为情感计算(Affective Computing)的临床应用提供新范式。

  

情绪解码的科学困境与突破
人类情绪如同复杂的密码,而脑电图(EEG)是破译这些密码的关键工具。尽管情感计算(Affective Computing)领域已取得显著进展,但现有EEG情绪解码研究存在致命短板——几乎所有数据集都局限于单一情境(如仅用视频或图片诱发情绪)。这就像仅用方言词典翻译普通话,其实际应用价值大打折扣。更严峻的是,不同情境下大脑情绪表征的异同至今仍是未解之谜,严重制约了情感脑机接口在心理健康监测、智能交互等领域的应用可靠性。

南方科技大学的研究团队敏锐捕捉到这一科学盲区,在《Scientific Data》发表了开创性研究。他们首次构建了多情境情感EEG数据集EmoEEG-MC,通过精心设计的双情境(视频诱导vs想象诱导)实验范式,采集60名受试者在7类情绪状态下的64通道EEG数据,同步记录皮肤电反应(GSR)和光电容积描记(PPG)信号。研究不仅证实了跨情境情绪解码的可行性(二元分类准确率66.7%),更揭示了情绪神经表征的情境依赖性规律,为开发普适性情感计算系统奠定了基石。

关键技术方法
研究采用标准化实验流程:1)通过460人预实验筛选21段视频(平均95秒)和21组想象引导音频(平均46秒)作为情绪诱发材料;2)使用g.HIamp系统采集64通道EEG(采样率600/1200 Hz),配合腕带设备同步记录GSR(40 Hz)和PPG(20 Hz);3)采用独立成分分析(ICA)去噪和差分熵(DE)、功率谱密度(PSD)特征提取;4)通过支持向量机(SVM)结合L1正则化进行跨情境分类验证。

突破性发现
1. 双情境情绪诱导有效性验证
通过受试者主观评分证实,两种情境均能特异性诱发目标情绪(p<0.05)。如图1所示,视频与想象材料在效价-唤醒度平面上形成清晰聚类,且目标情绪强度显著高于非目标情绪。

2. EEG特征的情境特异性与共性
图5显示,虽然不同情境的DE和PSD特征存在差异,但在α波段(8-14 Hz)均观察到双侧枕叶区域对温柔、厌恶等情绪的显著响应。跨被试相关性分析(ISC)进一步揭示,视频情境下枕叶皮层的神经同步性最强,而想象情境则激活前颞叶-顶叶网络。

3. 跨情境解码性能突破
采用SVM-L1模型时,DE特征在跨情境七分类中达28.9%准确率(显著高于14.3%随机水平)。特别值得注意的是,L1正则化使跨情境分类性能提升35%(对比L2正则化),说明稀疏特征选择对模型泛化至关重要。

范式转变的意义
该研究首次系统论证了情绪神经表征的情境可塑性:1)发现GSR的皮肤导电水平(SCL)可作为跨情境稳定指标;2)建立标准化多情境EEG数据集(已开源);3)提出"情境自适应特征选择"新思路。正如作者Xin Xu和Xinke Shen强调,这项工作不仅填补了情感计算领域的方法学空白,更为抑郁症跨情境情绪障碍评估、虚实融合场景的人机交互等应用提供了关键科学依据。未来研究可进一步探索多模态融合策略,推动情感计算从实验室走向真实世界。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号