算法建议的信任博弈:准确度披露对用户依赖程度的影响机制研究

【字体: 时间:2025年08月27日 来源:Behaviour & Information Technology 3.1

编辑推荐:

  来自多学科交叉领域的研究人员针对人工智能决策中用户过度依赖或排斥算法建议的现象,开展了关于算法准确度透明度(Accuracy Disclosure)影响的实证研究。通过控制实验揭示了准确度披露能显著调节用户对AI建议的依赖曲线,该发现为人机协同决策系统(Human-AI Collaboration)的透明度设计提供了关键循证依据。

  

当冷冰冰的算法给出热腾腾的建议时,人类大脑会开启一场精妙的信任博弈。最新研究将手术刀对准了这个认知黑箱——通过设计精巧的行为实验(Behavioral Experiment),研究者发现揭开算法准确度(Accuracy)的面纱会显著改变用户依赖模式。

实验设置如同心理学的显微镜:对照组用户面对神秘莫测的AI建议,而实验组则获知该算法80%的准确率(p<0.01)。功能磁共振成像(fMRI)数据显示,前额叶皮层(Prefrontal Cortex)的激活模式出现戏剧性分化。更有趣的是,当建议涉及医疗诊断(如糖尿病分型)时,准确度披露能使过度依赖(Over-reliance)风险降低37%,但同时也可能触发算法厌恶(Algorithm Aversion)的连锁反应。

这项研究如同在人机交互(HCI)领域投下认知科学的探针,揭示出透明度(Transparency)这把双刃剑如何重塑决策神经环路(Decision-making Circuitry)。数据科学家们由此获得关键启示:在开发临床决策支持系统(CDSS)时,恰到好处的准确度提示可能成为平衡人类直觉(Intuition)与机器逻辑(Logic)的黄金支点。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号