设计、实施和评估人工智能解释模型:可解释人工智能框架的综述性研究
《ACM Transactions on Computer-Human Interaction》:Designing, Implementing and Evaluating AI Explanations: a Scoping Review of Explainable AI Frameworks
【字体:
大
中
小
】
时间:2025年11月08日
来源:ACM Transactions on Computer-Human Interaction
编辑推荐:
人工智能系统深度融入生活引发人类理解需求增长,XAI框架研究面临实践应用与评估方法的双重挑战。通过PRISMA-ScR流程对73篇文献的元分析,提出涵盖需求识别、设计实施、效果评估的统一模型及九大指导问题,构建跨阶段框架选择决策树,为提升人本AI实践提供方法论支撑。
摘要
随着人工智能(AI)系统越来越多地融入我们的生活,支持人们对AI的恰当理解的需求也在持续增长。随着新的AI功能被应用于各种场景中,以人为中心的可解释性变得至关重要,以确保人们能够安全有效地与新型AI系统进行交互。为满足不断变化的可解释性需求,可解释AI(XAI)领域已经开发出了许多框架。但这些框架具体包含哪些内容?它们在实践中又该如何应用呢?是什么推动了这些框架的发展?随着AI系统复杂性的不断提高,理解这些框架的价值及其在满足未来以人为中心的可解释性需求方面的潜力变得尤为重要。为此,我们遵循PRISMA-ScR方法进行了一项范围研究,收集并分析了73篇相关论文,以了解XAI框架如何支持以人为中心的XAI设计的不同阶段。我们提出了一种统一的模型和一套指导性问题,帮助识别、比较和选择适用于不同设计阶段的XAI框架,从而使设计师和研究人员更容易在现实世界的XAI应用中采用以人为中心的方法。同时,我们还分析了这些框架的开发与评估过程,指出了方法论上以及现有以人为中心的XAI实践方面存在的差距和改进机会。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号