基于可解释深度学习框架FaithfulNet的结构MRI自闭症诊断及记忆功能区损伤评估研究

【字体: 时间:2025年09月01日 来源:Brain Research Bulletin 3.7

编辑推荐:

  本期推荐:本研究创新性地开发了可解释深度学习模型FaithfulNet,通过结构磁共振成像(sMRI)实现自闭症谱系障碍(ASD)诊断(准确率99.74%,AUC=1),并融合梯度类激活图(Grad_CAM)与SHAP梯度解释器生成新型可视化解释工具Faith_CAM。该研究突破深度学习"黑箱"局限,通过指向游戏评分验证解释可靠性,同时定位影响患儿学业表现的关键记忆脑区损伤,为个体化治疗提供新思路。

  

研究亮点

可解释人工智能(XAI)技术破解深度学习"黑箱"模型,提升临床决策可信度。XAI使深度学习模型的预测结果具备可解释性、透明度和可靠性。本研究运用XAI技术解释基于深度学习的自闭症诊断模型预测结果,并识别影响儿童学业表现的记忆功能区。

背景

自闭症是一种以重复行为和兴趣受限为特征的神经发育障碍,主要表现为社交技能、语言和非语言交流障碍(Qin等, 2024)。根据美国疾控中心(CDC)数据,2023年自闭症患病率已升至1/36儿童,较两年前1/44显著上升。研究表明自闭症可在2岁前通过结构磁共振成像(sMRI)检测。

方法论

我们开发了3D卷积神经网络(3D-CNN)用于sMRI数据分类,区分自闭症患者与正常对照组。图1展示了研究流程框架。本研究主要目标是通过XAI方法生成模型预测的可靠解释,创新性提出Faith_CAM可视化解释技术阐明模型决策过程。

结果

研究分两阶段:第一阶段构建可解释CNN模型FaithfulNet,实现自闭症高精度诊断;第二阶段运用XAI方法解读预测结果,通过指向游戏评估解释可靠性,并分析皮层/皮层下结构掩模定位自闭症大脑损伤区域。

讨论

深度学习在疾病诊断中的应用虽超越人类认知,但其"黑箱"特性限制临床转化。本研究通过XAI技术揭示模型决策机制,开发FaithfulNet诊断自闭症谱系障碍(ASD),并创新性结合Grad_CAM与SHAP梯度解释器生成可靠可视化解释。

结论

我们开发的FaithfulNet模型可从sMRI图像诊断自闭症,通过整合梯度类激活图(Grad_CAM)和SHAPley梯度解释器生成最终显著图解释(Faith_CAM)。解释结果经指向游戏评分验证,并通过脑区定量分析确定与儿童学业表现相关的记忆功能区损伤程度,为精准医疗提供新途径。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号