人工智能对临床决策的影响:从行为改变到医疗责任的研究启示
《npj Mental Health Research》:Matters Arising: The importance of understanding AI’s impact on physician behavior
【字体:
大
中
小
】
时间:2025年12月21日
来源:npj Mental Health Research
编辑推荐:
本文针对AI如何影响医生诊疗决策这一关键问题,通过实验研究发现:67%的初始不建议治疗但看到AI推荐治疗的医生改变了决策,而AI反馈与医生初始判断不一致时改变率更高(66.7% vs 18.2%)。研究揭示了AI对医生行为的显著影响及其潜在的医疗法律后果,为AI临床应用的规范化提供了重要依据。
随着人工智能(AI)在医疗领域的快速渗透,理解AI如何影响医生的临床决策变得至关重要。在初级保健和精神健康诊疗中,医生面临着复杂的决策场景,如是否给患者开具抗抑郁药或转诊进行ADHD(注意力缺陷多动障碍)评估。尽管AI有潜力提高诊疗效率和准确性,但其对医生行为的影响机制及可能带来的意外后果——特别是医疗法律风险——尚未得到充分探讨。
在这一背景下,Ryan等人发表在《npj Mental Health Research》的研究为我们打开了一扇窗。他们通过精心设计的实验发现,AI的建议能显著改变医生的治疗决策,尤其当AI建议与医生初始判断相左时。这一发现不仅证实了AI的强大影响力,也引发了关于“自动化偏倚”(automation bias)——即人类过度信任自动化系统的倾向——在临床环境中潜在风险的深入思考。
为了深入探讨AI对医生决策的影响,研究人员设计了一项针对家庭医学和内科医生的实验研究。参与者首先阅读描述有注意力或抑郁症状患者的临床情景,并初步判断患者是否适合ADHD转诊或抗抑郁药物治疗。随后,他们查看一个所谓AI程序提供的额外信息,该信息可能推荐或不推荐治疗。最后,医生再次被问及治疗建议。通过比较AI暴露前后的决策变化,并辅以医生对AI影响程度的主观估计,研究团队量化了AI的实际影响。此外,研究还结合了先前关于放射学家在AI辅助下解读胸部X光片的研究,以及模拟陪审团对涉及AI的医疗过失案件的裁决实验,从多个维度揭示了AI影响医生行为的机制及其 medico-legal(医疗法律)后果。
Ryan等人的实验数据显示,在初始不建议治疗但看到AI推荐治疗的医生中,67%改变了他们的决定。相反,在初始建议治疗但看到AI不推荐治疗的医生中,21.5%改变了主意。这种不对称的影响模式——AI推荐治疗时改变率远高于不推荐时——提示可能存在“防御性医疗”(defensive medicine)的倾向,即医生可能更倾向于遵循AI推荐的治疗方案以规避潜在的法律责任。
研究的一个巧妙设计是询问医生是否认为没有AI他们会做出不同的决定。在AI反馈建议治疗而医生初始不建议治疗的情境中,仅26.7%的医生认为AI影响了他们的决策;然而,实际改变决策的比例高达66.7%。这表明医生显著低估了AI对其判断的潜在影响,凸显了自动化偏倚的隐性风险。
研究者指出,Ryan等人使用5点Likert量表(一种测量态度的量表)测量主要结局,并通过计算两个时间点评估差异的绝对值来定义“决策改变”。这种方法可能高估了实际临床实践中会发生的行为改变,例如从“强烈不同意”变为“不同意”的微小变化被归类为改变,但在真实世界中可能不导致行为变化。此外,将两个不同临床情景(ADHD和抑郁)的数据合并分析,可能模糊了情景特异性差异。
Bernstein等人引用的模拟陪审团研究显示,当放射学家出现假阴性(FN)判断(即未能发现异常),但AI系统识别出异常时,模拟陪审员更倾向于支持原告。这表明,在实际医疗决策中,医生可能因为担心法律责任而更倾向于遵循AI建议,特别是在AI推荐治疗时。这种法律风险的感知可能强化AI对医生行为的影响。
研究还指出AI输出表述的重要性。例如,当AI不推荐SSRI(选择性5-羟色胺再摄取抑制剂,一类抗抑郁药)时,输出语句“患者Jess Y.在SSRI兼容性方面处于第52百分位,是‘平均’候选者”可能被误解为处方是合理的,尽管结论是不推荐。这揭示了AI界面设计中的“人因工程”(human factors)问题——即使细微的表述差异也可能显著改变医生行为。
Ryan等人的研究为理解AI在医疗决策中的作用提供了关键证据。研究表明,AI能显著影响医生行为,但这种影响可能被医生低估,且受到评估方法、医疗法律风险以及AI输出表述方式等因素的调节。AI的整合不仅是一个技术问题,更是一个涉及人类行为、认知偏倚和制度激励的系统工程。
这项研究的意义深远。首先,它强调需要开发更精细的方法来评估AI的实际临床影响,避免高估或低估其效果。其次,它呼吁关注AI实施的人因工程,确保AI输出的清晰性和无歧义性,以减少误解和误用。更重要的是,它揭示了医疗法律环境在塑造医生与AI互动中的关键作用。随着AI更深入地融入医疗实践,制定相应的法律、伦理和职业指南,以引导AI的负责任使用,避免自动化偏倚和防御性医疗的负面影响,将成为当务之急。
未来研究应致力于优化AI系统的交互设计,探索如何向医生有效传达AI的不确定性(如错误率),并进一步调查不同专科、不同决策类型下AI影响的差异。只有通过多学科合作——融合医学、法学、人因工程和人工智能——才能确保AI真正成为提升医疗质量和患者安全的有效工具,而非引入新的风险。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号