编辑推荐:
当前人工智能(AI)领域关注 AI 系统可信度,解释性方法常被认为可增信,但二者关系不明。研究人员聚焦用户对 (X) AI 系统的信任,梳理理论并调研实证研究。结果为研究提供起点,有助于更好衡量和评估用户态度,推动 AI 信任研究发展。
在科技飞速发展的当下,人工智能(AI)早已不再是科幻电影中的新奇概念,它如同一个无形却强大的伙伴,悄然融入人们日常生活的方方面面。从智能手机里的语音助手,到医院中的疾病诊断辅助系统,AI 的身影无处不在。然而,随着 AI 在高风险领域(如医疗诊断、信用评分、假释和保释决策等)的广泛应用,一系列问题也接踵而至。人们开始担忧 AI 模型的透明度、可解释性、问责性和公平性 。比如在医疗诊断中,若 AI 给出的诊断结果无法解释其依据,医生和患者又怎能放心使用呢?欧盟的《通用数据保护条例》(GDPR,Art. 15)和《欧盟人工智能法案》(EUR-Lex - 52021PC0206)也进一步凸显了提高 AI 系统可信度的紧迫性。
为了解决这些问题,众多研究聚焦于使 AI 系统更值得信赖,其中开发可解释人工智能(XAI)方法成为热门方向。人们期望通过 XAI 让 AI 系统的决策过程 “有迹可循”,从而增加用户信任。但现实却不尽人意,可解释性与信任之间的关系扑朔迷离,二者定义模糊,相关实证研究结果也莫衷一是。在此背景下,来自未知研究机构的研究人员开展了一项针对用户在 (X) AI 系统中信任问题的研究。该研究成果发表在《Cognitive Systems Research》上,为理解和解决 AI 信任问题提供了新的视角和思路,具有重要的理论和实践意义。
研究人员在开展研究时,主要运用了文献综述和分类归纳的方法。通过全面梳理机器学习、人机交互和社会科学等领域的理论知识,对用户信任、不信任和适当依赖进行概念化界定。同时,构建了研究 (X) AI 系统对用户信任影响的要素分类体系,对相关实证研究进行系统分析。
下面来详细了解一下研究结果:
- 信任概念的多维度剖析:研究指出,信任在 AI 情境下被定义为利益相关者的一种态度,即相信 AI 能在不确定和脆弱的情况下帮助实现个人目标。它与依赖紧密相关,信任有助于人们做出依赖 AI 的决策。但实际应用中存在过度信任(overtrust)和弃用(disuse)问题。过度信任可能导致人们盲目依赖错误的 AI 决策,弃用则是在 AI 系统正确时却未被合理使用。此外,研究强调应区分实际可信度和感知可信度,这凸显了以用户为中心评估的重要性。
- 影响用户信任的因素探究:研究表明,用户与 AI 系统的交互过程以及交互内外的多种因素都会影响信任。例如,模型结果或其解释的呈现形式、AI 系统的错误数量、解释技术的忠实度等。在研究用户信任时,还需考虑如何准确测量信任(和依赖),确定其他评估标准以及定义良好的结果。
- 实证研究的系统梳理:研究人员对 AI 和 XAI 技术对用户信任影响的实证研究进行了全面调查。通过构建的分类体系,对现有研究进行分析总结,呈现了当前研究在该领域的进展,包括已取得的成果以及存在的差距和未解决的问题。例如,现有研究在考虑任务绩效、允许用户体验不同信任场景以及区分不同类型信任和不信任方面存在不足。
- 信任与不信任的二维视角:研究支持将信任和不信任视为二维概念,而非简单的一维对立关系。低信任并不等同于高不信任,这种二维视角有助于更准确地理解用户对 AI 系统的态度。
研究结论和讨论部分强调,当前人们对 AI 用户信任和促进对可信 AI 方法的适当依赖的研究兴趣日益浓厚。该研究全面梳理了 AI 信任的理论观点,调查了相关实证研究,明确了影响用户信任的关键因素,为后续研究提供了清晰的起点。它有助于研究人员更好地设计用户研究,测量和评估用户对 (X) AI 系统的态度和依赖,推动 AI 在各个领域更安全、可靠地应用,让 AI 真正成为人们生活和工作中的得力助手,而非令人担忧的 “黑箱”。