编辑推荐:
这篇综述介绍了可解释人工智能(XAI)在生理学研究中的应用、方法及挑战,展望了其未来前景。
### 可解释人工智能在生理学研究中的崛起
在生命科学和健康医学领域,生理学是一门极具综合性的学科,它致力于探究生物体的正常和病理现象,深入剖析细胞、器官和系统之间的功能相互作用 。从心血管疾病研究,到免疫学、神经生理学,再到肿瘤检测与诊断,生理学的应用广泛,为众多医学问题提供了关键的研究视角。
近年来,人工智能(AI)在生理学研究中崭露头角,尤其是机器学习算法,已被广泛应用于疾病预测、数据分析等多个方面。在肿瘤学领域,AI 可用于乳腺癌和结直肠癌的检测与分类;在心血管疾病研究中,能实现收缩功能障碍的检测;在神经生理学中,还能进行癫痫发作的检测和中风预测 。然而,当前大多数 AI 方法采用的深度神经网络(DNN)虽然性能卓越,但因其决策过程复杂,对人类而言犹如 “黑箱”,缺乏透明度。
可解释人工智能(XAI)应运而生,它旨在使 AI 模型的决策过程和输出结果能够被人类理解。XAI 方法既包括本身具有可解释性的模型,也涵盖了为不透明模型提供解释的技术。在医疗决策过程中,XAI 尤为重要,它能帮助专家验证 AI 模型的结果,确保决策的合理性;还能辅助新手借助 AI 模型理解复杂的医学领域知识。
探索可解释人工智能的核心概念与方法
XAI 有着独特的术语体系。解释性(Interpretability)是指识别被解释对象的组成部分并赋予其意义;可解释性(Explainability)则侧重于创造对被解释对象的理解 。模型无关解释(Model-agnostic explanations)适用于任何类型的模型,而模型特定解释(Model-specific explanations)仅针对特定类型的模型,因其依赖于模型的内部参数或表示来生成解释。
从解释的范围来看,全局解释(Global explanations)关注模型整体行为的原因,而局部解释(Local explanations)则聚焦于模型对特定输入数据产生特定输出的原因 。模型归纳(Model induction)是通过生成替代模型来近似原模型,深度解释(Deep explanation)则专门针对复杂不透明模型,如 DNN 进行解释。此外,还有可解释模型(Interpretable models),这类模型通常由可解释的部分构建而成,天生具有透明度;解释生成时间上,ante hoc 解释在模型创建过程中产生,post hoc 解释则在模型创建后生成 。
在众多 XAI 方法中,SHapley 加性解释(SHAP)和局部可解释模型无关解释(LIME)应用较为广泛。SHAP 是一种基于博弈论的模型无关方法,它通过计算输入特征的 Shapley 值,量化每个特征对特定预测的贡献 。不过,计算精确的 Shapley 值计算成本较高,因此常采用 KernelSHAP 和 TreeSHAP 等近似方法。SHAP 既能提供局部解释,也能通过聚合实例提供全局见解。
LIME 主要用于解释不透明机器学习分类模型的个体预测。它通过在特定实例周围生成随机扰动实例,用简单可解释模型(如线性回归)来近似原模型的行为。但 LIME 的解释通常仅在实例附近有效,难以全局推广,且解释结果可能因扰动策略和特征定义参数的不同而有较大差异 。
除 SHAP 和 LIME 外,还有一些方法也在 XAI 中发挥着重要作用。层相关传播(LRP)用于解释 DNN 的决策,它通过将模型预测反向传播到各层,为输入特征分配相关性分数,并以热图形式可视化,展示每个特征对网络输出的贡献 。部分依赖分析(PDA)用于计算特定输入特征对模型最终输出的影响,并通过部分依赖图进行可视化,提供全局解释,但它假设特征之间相互独立,在数据相关性较高时可能产生误导 。梯度加权类激活映射(Grad-CAM)则专门用于可视化图像数据中对卷积神经网络(CNN)图像分类决策最重要的区域 。
可解释人工智能在生理学研究中的实践探索
为了全面了解 XAI 在生理学研究中的应用现状,研究者进行了一项系统回顾。他们在人工智能和医学领域的相关期刊及会议论文中,以 “可解释人工智能、XAI、可解释性、解释性、生理学” 为关键词进行搜索 。经过筛选,最终纳入 85 篇文章,其中 18 篇为综述论文,67 篇介绍了至少一种 XAI 方法。
这些研究涉及多个生理学领域。在重症监护医学(ICU)中,XAI 被用于预测患者的死亡率和再入院风险;在遗传学领域,可帮助识别基因表达模式与疾病的关联;在年龄诊断方面,能辅助分析不同测量方法与生理年龄的关系 。此外,在疼痛生理学、生物信号分析、阿尔茨海默病研究等多个方向,XAI 都展现出了独特的应用价值。
从应用的 XAI 方法来看,SHAP 出现的频率最高,达 40 次,主要用于全局解释;LIME 出现 15 次,常用于局部解释 。这两种方法因其模型无关性,能够广泛应用于不同的模型和数据类型,从而受到研究者的青睐。
可解释人工智能在生理学研究中的挑战与局限
尽管 XAI 在生理学研究中取得了一定进展,但仍面临诸多挑战。目前,大多数研究只是应用现有的 XAI 方法,鲜少有创新性的方法提出,这表明医学研究的重点可能更多地放在解决特定领域问题上,而非将 XAI 作为解决生理学问题的创新方案 。
在解释方式上,当前应用于生理学的 XAI 方法大多采用静态解释,缺乏互动性。而以人类为中心的方法,将人类作为主动参与者融入 AI 辅助决策过程,并将人类专业知识引入学习模型,在未来的发展中显得尤为重要 。此外,虽然视觉解释方法在生理学研究中应用广泛,但缺乏多模态方法,如结合可视化和语言陈述的解释方式,以实现更具表现力的可解释性 。
从数据驱动的预测方法与传统生理学的关系来看,两者存在差异。数据驱动的预测方法通常不寻求传统生理学意义上的解释,而 XAI 有望在两者之间架起桥梁,揭示数据密集型模型结果背后的特征概念,从而构建更复杂的解释 。
可解释人工智能在生理学研究中的未来蓝图
展望未来,XAI 在生理学研究中具有广阔的前景。一方面,XAI 方法可用于为整合生理学研究提供可信的 AI。通过将 XAI 与生理学知识深度融合,能够更好地解释 AI 模型的预测结果,使其更符合生理学原理,从而提高研究的可靠性和可解释性 。
另一方面,将生理学专业知识融入 XAI 方法的开发,有助于建立有益的人类 - AI 合作关系。例如,考虑人类认知过程中的神经和生化事件,以及神经系统的限制和潜力,能够使 XAI 生成的解释更符合人类的理解方式 。
此外,生成式人工智能(genAI)的发展也为医学诊断带来了新的机遇。结合 XAI,genAI 有望在未来几年打破传统诊断的局限,使诊断结果更加透明和可解释 。但随着技术的发展,也需要关注监管问题,确保新技术在医学领域的安全、有效应用。
结语
可解释人工智能为生理学研究带来了新的思路和方法,它在帮助理解 AI 模型决策、整合人类知识与模型数据方面具有重要意义。尽管目前还面临一些挑战,但随着技术的不断进步和研究的深入,XAI 有望在生理学研究中发挥更大的作用,推动生命科学和健康医学领域的发展,为人类的健康事业做出更多贡献。