综述:可解释人工智能(XAI)进展与挑战的系统性回顾
【字体:
大
中
小
】
时间:2025年10月28日
来源:Intelligent Systems with Applications 4.3
编辑推荐:
本综述对可解释人工智能(XAI)领域进行了系统性回顾,通过分析14篇高质量系统评价,首次以元视角梳理了XAI在提升AI系统透明度、可信度及跨领域应用(尤其在医疗健康、金融和管理决策等高风险领域)方面的关键目标、主流方法(如SHAP、LIME、Grad-CAM)、现存研究空白(如模型泛化性、评估标准缺失、伦理隐私问题)及未来发展方向。文章强调,推动XAI发展对构建可信、公平且符合伦理规范的人工智能至关重要。
本工作采用多学科方法,通过对可解释人工智能(XAI)的系统评价进行系统性回顾,识别出现有文献中的研究空白。据我们所知,这是首个全面的元综述,结合了多项优秀综述的发现,为该领域的目标和挑战提供了更高层次的视角。该综述涵盖了2021年至2023年间发表的实证研究,聚焦于高质量来源。初始的997条记录经过多个数据库筛选,在去除重复后得到928篇独特文章。最终,14项研究符合纳入标准并进行了深入分析。质量评估证实所有入选综述均遵循既定的方法学标准。关键发现显示XAI具有广泛用途,范围从增强信任和透明度到协助金融和管理决策。以医疗健康为重点的研究的普遍性强调了XAI在增强可解释性、公平性、法规遵从性和个性化治疗方案方面的重要性。常用技术包括视觉解释工具、可解释的机器学习模型以及模型无关方法。尽管该综述提供了有价值的见解,但它也承认了自身的局限性,例如对Q1期刊的依赖以及排除了更广泛的来源,这可能影响其全面性。为推进该领域发展,本研究建议将未来研究扩展至代表性不足的领域,如自动驾驶汽车、国防和智慧城市。同时呼吁进行方法学创新,以增强可及性、公平性、隐私性以及直观解释策略的开发。解决这些空白可以显著提高各领域人工智能系统的可信度和有效性。
人工智能(AI)已成为医疗健康、金融、交通、娱乐和客户支持等各个领域的重要力量,这得益于其执行模拟人类智能任务的能力。利用机器学习、深度学习、自然语言处理、机器人技术和计算机视觉等技术,AI复制了学习和决策等认知功能。其有效性主要由大数据驱动,大数据使得分析模式和生成准确预测成为可能。此外,AI模型根据其操作中的透明度和可解释性程度分为白盒、灰盒和黑盒模型。白盒模型提供完全透明性,允许对决策过程进行透彻理解。灰盒模型提供部分透明性,在复杂性和清晰度之间取得平衡。黑盒模型,尤其是在深度学习(DL)中,以高精度执行复杂任务但缺乏透明性,这在理解决策理由至关重要的场景中引发了问题。
AI中的黑盒困境对开发AI系统的信任和安全性提出了挑战。这一问题催生了XAI,它寻求在使用白盒或灰盒模型平衡可解释性和准确性的同时,也为高精度但不透明的黑盒模型提供解释,以保持决策的透明度。
在模式识别应用(如图像分类、目标检测和时间序列分析)中,XAI对于提高深度神经网络等复杂模型的可解释性至关重要。类激活映射(CAM)和Grad-CAM等方法提供视觉解释,帮助用户理解模型在进行预测时关注哪些要素,从而增强用户信任并提供诊断洞察,尤其是在医学影像和自动驾驶领域。强调XAI在这些任务中的作用凸显了其对模式识别研究人员和实践者的重要性。
很难确定“可解释人工智能”这一术语最早何时被创造,但在2016年,美国国防高级研究计划局(DARPA)发布了其鼓励性和监管性公告DARPA-BAA-16-53,标志着该领域的正式启动。DARPA将XAI定义为能够向用户阐述其推理过程的AI系统,强调其对预测未来行为的优势和劣势。目标是为人类专家提供关于AI决策原因的见解。换句话说,XAI试图回答“为什么?”的问题。
此外,通用数据保护条例(GDPR)是欧洲对XAI日益增长需求的一个重要例证。GDPR为所有在欧盟境内使用个人数据进行自动化决策过程的居民和实体强制执行数据保护和隐私标准。根据其指令,组织有义务揭示AI算法做出最终决策的过程,使用户能够识别任何潜在的偏见。
- •可解释构建过程:此阶段侧重于利用可视化工具和模拟来提高非技术用户的理解,从而培养信任和互动。
- •可解释决策:此阶段侧重于为AI决策提供可理解的解释,使用如SHAP和LIME等技术,这些技术在金融欺诈检测等监督系统中至关重要。
- •可解释决策过程:此阶段将AI整合到更广泛的业务流程中,允许AI输出与业务规则之间进行无缝交互,从而促进诸如定制化客户互动等复杂应用。
XAI的目标分为九个方面:可信度、因果性、可转移性、信息量、置信度、公平性、可及性、交互性和隐私意识。
- •因果性:识别变量间的因果关系在XAI中至关重要。它需要先验知识来理解这些联系,主要面向领域专家。
- •可转移性:侧重于将知识从一个领域应用到另一个领域。XAI阐明了模型的局限性和适用性,尽管并非所有模型都能确保轻松的可转移性。
- •信息量:一个可解释的模型为用户决策提供关键信息,旨在通过揭示模型内部运作来消除任何误解。
- •置信度:如果一个模型能可靠地执行其任务,则被认为是自信的,为用户提供对其输出的稳定感和信任感。
- •公平性:确保AI的道德使用,要求模型透明地展示其决策过程以防止偏见和不公平做法。
- •可及性:倡导在XAI中采用用户友好的界面,建议使用视觉解释使模型的内部运作对用户可及。
- •交互性:强调AI系统与用户之间需要用户友好的交互,确保信息易于理解。
- •隐私意识:在XAI中很重要,涉及保护用户数据,强调在系统开发生命周期中考虑隐私的必要性。
解释AI模型预测对于促进各行业的透明度和信任至关重要。XAI技术提高了机器学习模型的可解释性,特别是在医疗健康、金融和法律领域。这些方法简化了复杂预测,强调了关键方面,并分析了决策过程,使得调试、特征选择和识别偏见变得更加容易。最终,它们提高了AI系统在关键决策场景中的问责制和实用性。
- •视觉解释技术:如层间相关性传播(LRP)、类激活映射(CAM)和Grad-CAM,通过生成热图来突出显示输入数据中对模型预测贡献最大的区域,尤其在医学影像中非常有用。
- •可解释的机器学习模型:如随机森林(RF)分类器和可解释提升机(EBM),这些模型本身具有可解释性,其决策过程相对透明,适用于需要高透明度的场景。
- •模型无关的解释方法:如局部可解释模型无关解释(LIME)和沙普利加性解释(SHAP),这些方法可以应用于任何机器学习模型,通过近似局部行为或基于博弈论分配特征重要性来解释个体预测。
- •高级数据分析技术:如图分析、区块链技术、基于案例的推理(CBR)和基于自然语言处理(NLP)的神经网络,展示了XAI适应特定需求的能力。
- •算法和框架特定方法:如DeepLIFT和引导反向传播,提供了对模型行为和决策过程的更深入洞察。
- •因果和统计方法:如因果推断技术和统计模型检验(SMC),旨在提供对AI决策背后因果关系和影响的更深刻理解。
本研究面临的挑战在于XAI主题在研究人员中讨论广泛。因此,其系统评价非常近期,使得研究人员很容易找到2022年和2023年发表的综述。需要填补近期综述的时间空白非常狭窄。因此,本研究的初衷是对现有的系统评价(即使是最高评级的那些)进行系统性回顾,要求仅纳入发表在Q1期刊上的综述。这一选择是由于XAI系统评价的系统评价稀缺,这解释了本研究几乎是XAI领域首个系统评价的系统评价。本综述提出了以下五个研究问题作为其焦点:
本综述的方法论包括设定研究的纳入和排除标准、确定数据源、制定符合PRISMA指南的检索策略以及评估研究的质量。
根据PRISMA流程和既定的纳入排除标准(例如,必须是XAI的系统评价,发表在Q1期刊,时间范围等),从初始检索到的大量记录中筛选出最终符合标准的14项系统评价进行研究分析。
本研究通过检索ScienceDirect、Sage、IEEE Xplore、Springer、Taylor & Francis、PubMed、ACM和Google Scholar等数据库进行,重点关注标题中包含“Explainable AI”或“XAI”以及“systematic review”等术语的出版物。遵循PRISMA规则和排除标准后,最终留下14项系统评价研究进行分析。这些选定的综述涵盖了997篇出版物,在去除重复后减少到928篇独特研究。质量评估使用包含七个标准的清单,确认所有选定的研究都符合质量标准,适合纳入本系统性回顾。
分析发现,这些研究涵盖了广泛的领域,其中医疗健康是重点,其次是金融和管理的专业贡献。综合来看,XAI正被用于解决多个行业的挑战性问题。
- •医疗健康:这是XAI应用最深入的领域,涉及诊断、疾病预测、医学影像、临床决策支持(CDS)、电子健康记录(EHR)分析以及特定疾病研究(如阿尔茨海默病、癌症、COVID-19)。XAI在提高诊断准确性、增强临床医生对AI建议的信任、促进个性化医疗以及确保伦理合规方面发挥着关键作用。
- •金融:研究显示,XAI在金融领域(如信用风险评估、股票价格预测、反洗钱)的应用是一个新兴且有潜力的方向,旨在提高金融决策的透明度和可信度。
- •管理:XAI在管理领域的应用,特别是在应急管理、全球粮食安全和智能交通系统(ITS)中,展示了其解决全球性挑战的潜力。
- 1.提高透明度和信任度:通过使AI决策过程可理解,建立用户对AI系统的信任和接受度。
- 2.增强决策和临床结果:为专业人士提供可理解的AI辅助见解,以改进决策、诊断准确性和患者治疗效果。
- 3.增加公平性和减少偏见:检测、减轻和消除AI模型中的偏见,确保对不同人群的公平对待。
- 4.促进法规遵从和伦理AI使用:确保AI系统符合法律和伦理框架,保护患者权利和隐私。
- 5.支持模型开发和调试:通过可视化、检查和比较工具,帮助开发人员创建高性能且可解释的AI模型。
- 6.促进实际应用和个性化护理:确保XAI解决方案在现实临床环境中实用且有效,满足个体患者需求。
- 1.视觉解释技术(如LRP, CAM, Grad-CAM):生成热图可视化关键预测区域。
- 2.可解释的机器学习模型(如RF, EBM):本身具有可解释性的模型。
- 3.模型无关的解释方法(如LIME, SHAP):适用于任何模型的局部或全局解释方法。
- 4.高级数据分析技术(如图分析、区块链、CBR):适应特定需求的复杂分析技术。
- 5.特定背景下的可解释性(如NLP神经网络、定制XAI方法):针对特定领域(如语言处理)定制的方法。
- 6.算法和框架特定方法(如DeepLIFT, 引导反向传播):提供对模型内部工作的深入洞察。
- 7.因果和统计方法(如因果推断, SMC):旨在理解模型决策中的因果关系。
- 1.复杂性和可理解性:解释本身可能过于复杂,难以被不同背景的用户理解。
- 2.泛化性和应用性:现有方法在不同模型和领域间的泛化能力有限,对非表格数据(如文本、图像)的应用存在困难。
- 3.评估与验证:缺乏 rigorous 且标准化的方法来评估XAI方法的有效性,在真实世界环境中的验证不足。
- 4.伦理和隐私考虑:对XAI系统的伦理影响和数据隐私问题的关注不足。
- 5.最终用户关注度和可用性:XAI输出与最终用户目标的契合度有限,缺乏多样化的利益相关者参与,忽视了以用户为中心的设计原则。
- 6.技术多样性和创新:过度依赖少数几种技术,现有模型的可解释性有限。
- 7.数据挑战:特定领域公开数据集稀缺,临床数据质量和可用性存在问题,缺乏全面和平衡的数据集。
- 8.模型保真度和准确性:在确保模型保真度和平衡可解释性与准确性之间存在困难。
- 9.跨领域研究:需要更广泛的、跨学科的研究策略来解决特定领域的问题。
- 1.建立强大的框架和标准:制定监管、伦理框架以及数据处理、模型验证和评估的标准方法。
- 2.增强可解释性和透明度:开发提供清晰、易懂解释的机制,改进模型保真度。
- 3.促进合作和多学科整合:整合技术、医疗、政策、伦理等多领域知识,开发社会相关且道德健全的XAI系统。
- 4.优先考虑社会和临床需求:使XAI研究扎根于现实世界背景,解决实际问题和需求。
- 5.推进研究和创新:探索代表性不足的方法论,将研究扩展到新的领域和应用。
- 6.伦理考虑和以人为中心的设计:将公平性、数据隐私和临床专业知识融入XAI设计和开发全过程。
本部分对上述发现进行了综合讨论,强调了XAI在不同领域的应用广度、其核心目标、方法的多样性、存在的显著挑战以及未来的发展方向。讨论指出,尽管XAI在医疗健康等领域取得了显著进展,但其发展仍面临可解释性本身复杂性、评估标准缺失、伦理问题等诸多挑战。未来需要跨学科合作,开发更人性化、更公平、更易于评估的XAI系统,并将其推广到更多应用领域。
本系统性回顾总结了可解释人工智能(XAI)领域的重要进展,强调了其在增强AI系统信任度、透明度和伦理应用方面的关键作用。通过对14篇高质量系统评价的元分析,揭示了XAI在医疗健康、金融和管理等领域的广泛应用、核心目标、主流方法以及当前面临的主要研究空白(如模型泛化性、评估标准、伦理隐私等)。为推动领域发展,未来研究应致力于简化解释方法、增强公平性、扩大应用范围、建立评估标准,并通过跨学科合作构建负责任、可信赖的AI系统。
未来的实际研究方向包括:与认知科学家合作开发非专家也能理解的解释方法;识别和消除AI模型中的偏见以提升公平性;改进XAI工具的可用性和可及性;将XAI应用拓展至自动驾驶、智慧城市等新兴领域;以及制定平衡透明度和隐私保护的指导方针。这些努力将克服当前限制,推动XAI的创新和实际应用。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号