XAIUI:一种基于用户信念的可解释人工智能技术,用于实现具备上下文感知的自适应界面
《ACM Transactions on Interactive Intelligent Systems》:XAIUI: User Belief-Driven Explainable AI for Context-Aware Adaptive Interfaces
【字体:
大
中
小
】
时间:2025年11月08日
来源:ACM Transactions on Interactive Intelligent Systems
编辑推荐:
可解释AI(XAI)在情境感知增强现实(AR)系统中通过融合系统适配模型与用户内部表征贝叶斯模型生成定制化解释,双盲实验表明其解释更易理解且用户偏好显著高于基线模型(χ2(4)=62.28,p<0.001;χ2(4)=840.855,p<0.001),有效解决传统XAI冗余解释问题。
摘要
可解释人工智能(XAI)为自适应界面中的可预测性和可解释性挑战提供了解决方案,尤其是在基于情境动态调整信息的增强现实(AR)系统中。虽然传统的XAI方法强调了影响调整的情境因素,但它们往往忽略了用户的内部理解,例如用户的专业知识及其对情境的感知。这种忽略可能导致解释显得冗余或显而易见。我们提出了XAIUI,这是一种计算方法,通过将系统的调整模型与用户内部表示的贝叶斯模型相结合来生成定制化的解释。两项在线研究评估了XAIUI的效果。在第一项研究(N=77)中,参与者将XAIUI的解释评为最受欢迎的解释,其受欢迎程度超过了其他四种替代方案()。在第二项研究(N=110)中,与所有替代方案相比,XAIUI的解释被认为复杂度显著较低(),除了不提供任何解释的情况之外。我们的结果展示了XAIUI提供以用户为中心、简洁且直观的解释的能力,突显了其提升人工智能驱动界面的潜力。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号