
-
生物通官微
陪你抓住生命科技
跳动的脉搏
智能系统可理解性量表的开发与验证:跨三领域的测量工具构建与应用
【字体: 大 中 小 】 时间:2025年08月01日 来源:International Journal of Human-Computer Studies 5.1
编辑推荐:
这篇研究通过三阶段实验开发了首个标准化智能系统可理解性量表(含解释全面性、信任校准、认知可达性、解释必要性4维度),填补了AI(人工智能)人机交互领域测量工具空白。量表在自动驾驶(AV)、医疗和金融决策支持系统中验证了效度,证实可理解性显著影响用户信任度(Trust)、使用意愿(Usage Intention)及满意度(Satisfaction),为设计用户友好型AI系统提供量化依据。
Highlight
本研究亮点在于首次系统构建了智能系统可理解性的多维测量框架,通过跨领域验证揭示了用户认知与AI解释质量间的关键桥梁。
Discussion
研究发现,四维度模型(解释全面性、信任校准、认知可达性、解释必要性)能稳定捕捉用户对AI系统的理解差异。回归分析显示,可理解性每提升1单位,用户信任度增加0.38(p<0.001),使用意愿提高0.29*(p<0.01),证实其作为人机交互核心指标的价值。
Limitations and future research
需注意:1)模拟场景与真实环境存在差异,未来可采用驾驶模拟器(Driving Simulator)提升生态效度;2)量表在非结构化决策场景(如创意设计AI)中的适用性待验证。
Conclusion
本研究不仅构建了理论框架,更提供了可落地的设计指南——当AI解释同时满足"逻辑透明性(Explainability)"和"认知匹配性(Mental Model Alignment)"时,用户理解效率最高。
(注:翻译保留原文小标题层级,去除文献引用标识,专业术语如Explainability等用括号标注,统计显著性用*动态呈现)
生物通微信公众号
知名企业招聘