Emoface:基于人工智能的面部生物标志物模型实现抑郁症(MDD)与双相情感障碍(BD)的精准鉴别诊断

《npj Mental Health Research》:Emoface: AI-assisted diagnostic model for differentiating major depressive disorder and bipolar disorder via facial biomarkers

【字体: 时间:2025年10月19日 来源:npj Mental Health Research

编辑推荐:

  本研究针对双相障碍(BD)与重度抑郁症(MDD)因临床表现相似而存在高误诊率的问题,开发了一种名为Emoface的人工智能辅助诊断模型。该模型通过分析患者在情绪刺激下面部活动的视频数据,成功识别出可区分BD与MDD的数字化面部生物标志物,并构建了面向临床与教学的首套数字化面部图谱。在347例临床验证中,模型对BD和MDD的诊断准确率分别达95.29%和87.05%,为情感障碍的快速精准诊断提供了可靠的面部人工智能解决方案。

  
情感障碍,特别是重度抑郁症(Major Depressive Disorder, MDD)和双相障碍(Bipolar Disorder, BD),已成为全球范围内重大的公共卫生挑战。这两种疾病在临床表现上具有高度相似性,尤其是在抑郁发作阶段,临床医生往往难以准确区分。据统计,约40%至50%的BD患者曾被误诊为MDD,导致治疗延误可达8至10年,不仅加重病情进展,也显著增加医疗支出与社会负担。当前诊断主要依赖《精神障碍诊断与统计手册》(DSM-IV/V)标准与结构化访谈,缺乏快速、客观的生物标志物,亟需发展新型辅助诊断工具。
近年来,人工智能技术在精神健康领域的应用展现出巨大潜力,尤其是在挖掘多模态行为与生理信号方面。面部表情作为情绪状态的重要外在指标,已被证实可用于抑郁症状分析,然而此前研究多集中于抑郁严重程度评分,极少有工作系统探索基于面部活动特征对BD和MDD进行分类。此外,由于隐私与成本限制,可用于建模的高质量面部数据仍然有限。在此背景下,浙江大学研究团队开发出Emoface——一种专用于鉴别BD和MDD的人工智能辅助诊断模型,通过捕捉患者在接受情绪刺激时的面部动态变化,提取数字化生物标志物,实现快速、精准诊断。该研究成果发表于《npj Mental Health Research》,为情感障碍的临床诊断提供了创新性的“面部解决方案”。
研究团队通过以下关键技术开展系统研究:首先,建立了迄今最大的单中心情感障碍面部视频数据集,包含353名参与者(含MDD、BD患者及健康对照)在观看情绪诱发视频前后的面部动态记录;其次,基于ResNet-18架构构建深度学习模型,引入注意力机制与动态重标注策略,优化模型对关键面部区域的识别能力;此外,利用Dlib库检测68个面部关键点,结合梯度加权类激活映射(GradCAM)技术实现特征可视化;最后,基于三维重建技术生成BD与MDD的标准数字化面部图谱,为临床与教学提供直观参考。
Emoface帮助发现新的视觉数字化生物标志物
通过将面部划分为16个关注区域与9个器官组,Emoface系统分析了不同情绪状态下患者的面部活动模式。研究发现,在BD诊断中,模型对外眼角(区域5和8)激活值较高,表明该区域动态变化是BD的典型特征;而对于MDD,模型更关注内眼角(区域6和7)的细微运动。同时,通过梯度热点分析显示,BD患者的情感波动多集中于眉眼交界与口周区域,而MDD则以内眼角、唇内轮廓为主要变化区域。健康对照组的面部激活则呈现更均匀、自然的分布模式。这些差异化的激活模式为两类疾病的鉴别提供了可靠的视觉生物标志物。
Emoface生成标准特征化面部图谱
研究进一步利用三维重建技术,基于Emoface提取的面部轮廓参数与情感特征,分别构建了MDD与BD的标准数字化面部模型。该模型通过加权平均计算典型面部形态,突出疾病特异性特征(如MDD患者内眼角与口部运动,BD患者外眼角与口周变化),形成可用于临床参考与医学教育的“疾病面部图谱”,在保护患者隐私的同时提升诊断直观性。
Emoface在真实临床场景中诊断情感障碍
在包含347例样本的外部临床验证中,Emoface表现出优秀的诊断性能。基于面部视频的分析在BD诊断中达到95.38%的准确率与95.41%的F1分数;而通过显式数字化标志物提取,MDD诊断准确率达87.12%。使用3D标准面部模型进行特征匹配同样保持稳定性能(平均ACC与F1分数约89%),显示该模型在不同应用场景下均具有良好的泛化能力。受试者工作特征曲线(ROC)分析显示,所有类型的曲线下面积(AUROC)均超过0.95,其中MDD与BD的AUROC值达0.97,表明模型对两类疾病的区分具有高度可靠性。
Emoface提升面部表示与视觉可解释性
通过统一流形逼近与投影(UMAP)对面部编码进行降维与可视化,研究发现BD、MDD和健康对照在面部特征空间中形成明显聚类,尤其在内外眼角、鼻部与口周等关键区域具有显著区隔。特征匹配分析进一步验证了标准3D面部模型在表示学习中的有效性,证实Emoface不仅提升诊断精度,也增强了面部特征在情感障碍中的可解释性与代表性。
本研究通过大规模面部运动数据分析与深度学习建模,成功开发出一种能够快速、准确鉴别BD与MDD的人工智能诊断工具Emoface。该模型不仅识别出具有疾病特异性的面部生物标志物,还构建了面向临床与教学应用的数字化面部图谱,为情感障碍的辅助诊断提供了新的技术路径。尽管当前模型在复杂微表情解析与文化多样性方面仍存在局限,未来通过扩大样本规模、融入多模态数据与更先进的生成式人工智能技术,Emoface有望进一步优化其诊断性能与临床适用性,推动精神健康领域的数字化发展。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号