用于商业应用的情绪刺激电子图书馆(EL-CUES):一个经过注释的图像数据库,用于情绪诱导研究,并在德国人群中进行了验证

《IEEE Transactions on Affective Computing》:Electronic Library for Commercially Usable Emotional Stimuli (EL-CUES): An Annotated Image Database for Emotion Induction Validated in a German Population

【字体: 时间:2025年11月27日 来源:IEEE Transactions on Affective Computing 9.8

编辑推荐:

  本文提出EL-CUES情感刺激数据库,包含210张经532名德国评估者多维度(效价、唤醒度、基本情绪)标注的图像,平均每图116条评分,通过K-means聚类划分为8类情感反应组,并提供按性别、年龄等个体特征筛选工具,支持商用与科研许可,解决现有数据库过时、地域局限及非商用限制问题。

  

摘要:

在许多行为实验中,诱导参与者产生特定的情绪状态是关键步骤。研究人员通常依赖提供经过验证的刺激材料(如图片)的数据库来引发情绪反应。然而,这些数据库存在诸多局限性,例如图片集过时、无法适用于不同的人群群体,以及仅适用于基础研究环境,这限制了它们在商业研究和应用科学中的使用。在这里,我们介绍了“适用于商业使用的情绪刺激电子图书馆”(EL-CUES)——该数据库包含210张图片,由532名德国评估者对这些图片的效价、唤醒度和基本情绪进行了标注,平均每张图片获得了116次评分。基于这些标注,我们使用k-means聚类方法将EL-CUES数据库中的图片分为八组情绪反应类型。我们提供了一个工具,可以根据个体的具体特征(如性别和年龄)以及所需的情感反应来选择图片。EL-CUES既可用于研究,也可用于商业许可,与现有数据库相比,在情绪诱导方面提供了更强大的功能。

引言

在心理学、认知神经科学或计算机科学领域的许多实验中,可靠且可重复地引发参与者的精确情绪状态至关重要。图片是实现这一目标的最有效方法之一。为了便于引发情绪反应,已经建立了许多包含标注图片的基础研究数据库。现有的大多数刺激数据库使用的是情绪场景或人脸图片。其中最早且使用最广泛的数据库之一是IAPS,它包含了1196张情绪场景图片,由近100名大学生进行评分。然而,IAPS中的许多图片主题较为陈旧或具有地域局限性,这限制了其普遍性和相关性[1]、[2]。为了解决这些问题,哈佛大学的研究人员开发了OASIS数据库,该数据库包含900张图片,由822名通过亚马逊Mechanical Turk(MTurk)招募的评估者进行评分[3]。类似的情感场景图片数据库还包括EmoMadrid[4]、NAPS[5]或GAPED[6],以及面部表情数据库如AffectNet[7]、KDEF[8]或PFA-U[9]。这些数据库虽然关注点不同,但都扩展了可用图片的范围,有助于避免参与者产生习惯化效应[6],并被用于多种研究,例如研究自然面部表情[10]、季节性情感障碍[11]或基于虚拟现实的 cocaine 使用障碍治疗[12]。现有数据库的一个共同限制是它们仅适用于非商业研究目的。这些限制阻碍了弗劳恩霍夫协会(Fraunhofer Society)、马克斯-普朗克学会(Max-Planck Society)或亥姆霍兹协会(Helmholtz Association)等应用研究机构将这些资源用于商业应用研究。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号