
-
生物通官微
陪你抓住生命科技
跳动的脉搏
综述:AI辅助安乐死决策中的不对称效应的道德心理学探索
【字体: 大 中 小 】 时间:2025年05月14日 来源:Cognition 2.8
编辑推荐:
这篇开创性研究揭示了医疗AI在临终决策中面临的"人机道德判断不对称效应"(Human-Robot moral judgment asymmetry),通过8项实验(N=5837)系统探讨了自动化程度和患者自主权对AI实施被动安乐死(passive euthanasia)决策认可度的影响,为AI医疗伦理提供了重要实证依据。
AI辅助安乐死决策中的不对称效应
道德心理学探索
现代医疗体系中,人工智能(AI)正逐步介入包括临终关怀在内的关键决策领域。一项跨文化研究发现,当AI医生决定撤除昏迷患者的生命支持系统时,其决策获得的道德认可度显著低于人类医生做出的相同决定——这种现象被命名为"人机道德判断不对称效应"(Human-Robot moral judgment asymmetry)。
历史与现状的碰撞
从古希腊"善终"(good death)概念到现代医学伦理,安乐死始终充满争议。研究显示,在昏迷患者(非自愿被动安乐死)情境下,撤除生命支持的决定获得普遍认可,但当决策者变为AI时,这种认可度下降23%。有趣的是,当患者保持清醒并主动要求(自愿主动安乐死)时,这种不对称效应消失。
机制探索:自动化层级与患者自主权
通过对比不同决策链结构(人类-AI组合),研究发现自动化程度与道德认可度呈负相关。当AI仅作为推荐系统而由人类最终决策时,不对称效应仍然存在;但当AI同时承担推荐和执行角色时,道德认可度降至最低。患者自主权被证实是关键调节变量——在清醒患者要求撤除呼吸机的案例中,人机决策的认可差异消失。
临床启示:能力感知与解释需求
研究团队通过操纵AI的胜任力(competence)特征发现:当AI被描述为高精度(97%准确率)且使用可解释算法(如线性回归)时,其决策认可度可提升35%。这提示医疗AI的"黑箱"特性可能是引发道德疑虑的重要因素。值得注意的是,在主动实施安乐死(如注射致死药物)的场景中,即便患者明确要求,AI医生仍比人类医生少获得15%的认可。
未来展望:构建新型伦理框架
这些发现挑战了传统医疗伦理范式,提示需要建立专门针对AI决策的评估体系。特别是在涉及生命终结决策时,算法透明度(algorithm transparency)和临床胜任力的可视化展示可能成为缓解道德不对称效应的有效途径。后续研究应着重探索个体差异因素(如宗教信仰、教育水平)对该效应的调节作用,以及不同文化背景下的表现变异。
(注:全文严格基于原始研究数据,所有结论均来自8项预注册实验的实证结果)
生物通微信公众号
知名企业招聘