LitePMix:在全面部遮挡条件下的面部动作识别技术,适用于少样本学习场景

《Digital Signal Processing》:LitePMix: Facial Action Recognition Under Full Facial Occlusion for Few-Shot Learning

【字体: 时间:2025年11月03日 来源:Digital Signal Processing 3

编辑推荐:

  面部动作识别在严重遮挡下的研究,提出跨模态特征增强算法和轻量级时序架构LitePMix,结合RGB纹理与关键点坐标变换,构建遮挡场景专用数据集,实验显示准确率提升至90.6%和70%。

  面部动作识别是计算机视觉领域的重要研究课题,其核心目标在于通过对视频序列的分析,实现对人脸表情和动作的细粒度语义理解。这一技术在安全监控、人机交互、身份验证等多个实际应用场景中具有广泛的价值。然而,当前大多数研究主要集中在未遮挡或部分遮挡的条件下,对于严重遮挡场景下的面部动作识别仍面临诸多技术难题。传统方法依赖于面部感兴趣区域(ROI)的特征提取,当面部关键部位被遮挡时,有效感知区域大幅减少,导致模型性能显著下降。此外,数据标注的复杂性和成本也限制了监督学习方法在实际应用中的推广。

针对上述问题,本文提出了一种创新性的解决方案,结合跨模态特征增强算法与轻量级时间序列架构,以提升在严重遮挡情况下的面部动作识别能力。首先,通过跨模态特征增强算法,将面部关键点坐标变化与RGB外观特征进行融合,以获取更全面的面部信息表示。这种方法能够有效克服传统单模态方法在复杂场景下的表征局限性,从而提升模型对遮挡区域的适应能力。其次,我们引入了一种轻量级时间序列架构——LitePMix,该架构专门设计用于少样本学习环境,通过嵌入模块、通道混合机制以及原型损失技术的结合,能够在有限的标注数据条件下实现更高的识别精度。实验结果表明,LitePMix在自建数据集和UER数据集上分别达到了90.6%和70%的平均准确率,显著优于现有基准方法。

面部动作单元(AU)识别是面部动作识别的重要组成部分,它关注的是面部肌肉的微小变化,这些变化可以用来判断个体的情绪状态或意图。近年来,AU识别技术取得了诸多进展,一些研究基于静态图像的方法,通过将人脸划分为多个区域或块来识别AU,例如Shao等人提出了一种自适应通道和空间注意力机制,使模型能够聚焦于与AU相关的局部特征。然而,这些方法在处理动态信号和复杂遮挡情况时仍存在局限性,尤其是在完全遮挡的情况下,传统的基于ROI的特征提取方法往往无法提供足够的信息用于识别。因此,需要一种能够有效捕捉面部关键点动态变化并结合视觉特征的方法,以应对遮挡带来的挑战。

为了验证所提出方法的有效性,我们构建了一个专门用于关键面部区域遮挡的视频数据集。该数据集包含佩戴口罩和太阳镜的受试者,模拟了日常生活中常见的遮挡场景。通过对该数据集进行分类任务,我们能够评估模型在遮挡条件下的识别性能。此外,我们还对现有的一些合成数据集进行了比较分析,发现这些数据集在遮挡场景的覆盖度和多样性方面存在不足,难以全面反映实际应用中的复杂情况。因此,我们提出的数据集不仅提供了丰富的遮挡样本,还通过合理的标注方式确保了数据的准确性和代表性。

在方法设计方面,本文提出了一种基于少样本学习的解决方案,结合了嵌入模块、通道混合机制和原型损失技术。这些模块共同作用,使得模型能够在小样本条件下实现有效的特征提取和表示学习。嵌入模块负责将输入的面部动作信号转换为高维特征空间中的表示,通道混合机制则增强了模型对不同通道信息的整合能力,使得在关键区域被遮挡的情况下,仍能提取出具有判别性的特征。原型损失技术则进一步优化了模型对不同面部动作类别的特征聚类能力,从而在遮挡和少样本条件下提升识别准确率。

实验部分展示了所提出方法在多个数据集上的表现。在自建的遮挡数据集上,LitePMix模型达到了90.6%的平均准确率,而在UER数据集上也取得了70%的识别效果。这些结果表明,我们的方法在实际应用中具有较强的鲁棒性和有效性。进一步的消融实验验证了各个模块对模型性能的贡献,特别是少样本学习和通道混合机制在提升识别精度和应对遮挡挑战中的关键作用。

本文的主要贡献可以总结为以下三点:首先,我们构建了一个专门用于关键面部区域遮挡的视频数据集,通过模拟真实场景下的遮挡情况,为研究提供了更丰富的数据支持;其次,我们提出了一种跨模态融合算法,将面部关键点坐标变化与RGB外观特征相结合,以构建更全面的时空特征表示框架;最后,我们开发了一种基于少样本学习的深度学习模型LitePMix,该模型通过特征增强模块,在有限的标注数据条件下实现了对复杂遮挡场景的有效识别。

在实验设计中,我们采用了多种评估指标,包括准确率、F1分数和混淆矩阵,以全面衡量模型在不同遮挡程度下的表现。同时,我们还对模型在不同遮挡模式下的泛化能力进行了测试,确保其在多种实际场景中的适用性。实验结果不仅验证了所提出方法的有效性,也为未来在遮挡场景下的面部动作识别研究提供了参考依据。

此外,本文还探讨了在实际应用中如何优化模型的训练过程和推理效率。考虑到在遮挡条件下获取标注数据的困难,我们采用了一种半监督学习策略,结合少量标注数据和大量未标注数据进行训练,以提升模型的泛化能力。同时,为了提高模型的实时性,我们对LitePMix架构进行了轻量化设计,使其能够在资源受限的设备上运行,满足实际应用中的需求。

总的来说,本文提出的跨模态融合算法和轻量级时间序列架构为面部动作识别在严重遮挡场景下的应用提供了新的思路和解决方案。通过构建专门的数据集、优化特征表示方法以及引入少样本学习策略,我们不仅提升了模型的识别能力,还降低了数据标注的复杂性和成本。这些研究成果对于推动面部动作识别技术在复杂环境下的发展具有重要意义。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号