
-
生物通官微
陪你抓住生命科技
跳动的脉搏
卷积双注意力网络(CDAN):基于多光照强度的驾驶员情绪识别方法及其在提升交通安全中的意义
【字体: 大 中 小 】 时间:2025年09月04日 来源:Journal of Visual Communication and Image Representation 3.1
编辑推荐:
本文提出卷积双注意力网络(CDAN),通过整合多卷积线性层注意力(MCLLA)和卷积注意力模块(CAM),结合旋转位置编码(RoPE)与局部增强位置编码(LePE),有效解决驾驶场景中光照变化对情绪识别精度的影响。实验表明,CDAN在MLI-DER、KMU-FED和CK+数据集上优于现有方法,为实时驾驶员状态监控提供了高效解决方案。
Highlight
本研究的核心贡献如下:
我们提出CDAN,一种针对多变光照条件下驾驶员情绪识别的鲁棒框架。
该框架集成多卷积线性层注意力(MCLLA),采用线性注意力并结合旋转位置编码(RoPE)和局部增强位置编码(LePE),以捕捉全局与局部空间关系,适应不同光照并聚焦显著特征。
引入卷积注意力模块(CAM)优化特征映射,提升网络中的特征表示质量。
我们在MLI-DER数据集及添加光照变化的KMU-FED和CK+数据集上进行了实验,评估了多种光照条件下的驾驶员情绪识别性能,此为领域重要贡献。
Driver emotion recognition methods based on physiological signals analysis
生理信号被广泛认为是情绪状态的可靠指标[14],多种方法基于信号分析开发了驾驶员情绪识别系统。一项显著研究[15]针对特定交通条件(如事故和拥堵)定制了此类系统。为应对这些场景中真实数据采集的挑战,虚拟现实模拟被用于复现驾驶相关情绪并促进生理数据获取。
Overview
CDAN模型是一种利用面部表情分类情绪状态的驾驶员情绪识别系统。它处理不同光照条件下情绪变化作为输入,并输出离散情绪类别。具体而言,该模型识别以下情绪类:MLI-DER数据集中为快乐、中性、愤怒;KMU-FED数据集中为快乐、悲伤、愤怒、厌恶、惊讶、恐惧;CK+数据集中为快乐、悲伤、愤怒、厌恶、惊讶、恐惧、中性。
Experimental dataset and implementation
本节描述了用于评估CDAN框架的数据集、数据处理步骤和实施细节。我们首先介绍实验所用数据集,包括MLI-DER、KMU-FED和CK+。接着概述了模拟光照变化及确保数据集一致性的数据处理方法。最后提供了关于模型架构、训练参数和实验设置的全面实施细节。
Experimental results and analysis
本节展示实验细节、不同方法的结果比较、评估指标、参数设置及各层比较。
Discussion and limitation
本节呈现了数据集修改和实验的关键发现,聚焦于数据集复杂性和模型泛化能力。KMU-FED和CK+数据集通过引入多变光照条件进行调整(如图3)。这些修改增加了其复杂性,使其更贴近真实场景。为确保鲁棒泛化,采用了降维的轻量化模型。表4表明,所提出模型...
Conclusion
本研究引入了一种 novel 方法,用于多变光照条件下的驾驶员情绪识别,采用提出的CDAN框架。通过在少量公开数据集(包括MLI-DER、KMU-FED和CK+)上的广泛实验,我们证明了所提方法的有效性。结果表明,整合先进技术如旋转位置编码、局部增强位置编码与线性注意力及卷积注意力模块...
生物通微信公众号
知名企业招聘