智能系统可理解性量表的开发与验证:跨三领域的测量工具构建与应用

【字体: 时间:2025年08月01日 来源:International Journal of Human-Computer Studies 5.1

编辑推荐:

  这篇研究通过三阶段实验开发了首个标准化智能系统可理解性量表(含解释全面性、信任校准、认知可达性、解释必要性4维度),填补了AI(人工智能)人机交互领域测量工具空白。量表在自动驾驶(AV)、医疗和金融决策支持系统中验证了效度,证实可理解性显著影响用户信任度(Trust)、使用意愿(Usage Intention)及满意度(Satisfaction),为设计用户友好型AI系统提供量化依据。

  

Highlight

本研究亮点在于首次系统构建了智能系统可理解性的多维测量框架,通过跨领域验证揭示了用户认知与AI解释质量间的关键桥梁。

Discussion

研究发现,四维度模型(解释全面性、信任校准、认知可达性、解释必要性)能稳定捕捉用户对AI系统的理解差异。回归分析显示,可理解性每提升1单位,用户信任度增加0.38(p<0.001),使用意愿提高0.29*(p<0.01),证实其作为人机交互核心指标的价值。

Limitations and future research

需注意:1)模拟场景与真实环境存在差异,未来可采用驾驶模拟器(Driving Simulator)提升生态效度;2)量表在非结构化决策场景(如创意设计AI)中的适用性待验证。

Conclusion

本研究不仅构建了理论框架,更提供了可落地的设计指南——当AI解释同时满足"逻辑透明性(Explainability)"和"认知匹配性(Mental Model Alignment)"时,用户理解效率最高。

(注:翻译保留原文小标题层级,去除文献引用标识,专业术语如Explainability等用括号标注,统计显著性用*动态呈现)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号