综述:人工智能在医疗保健中应用的伦理和社会考量——一项双管齐下的范围综述

【字体: 时间:2025年05月28日 来源:BMC Medical Ethics 3

编辑推荐:

  这篇综述创新性地采用双管齐下设计(SR1聚焦2021-2023年最新文献,SR2分析2014-2024年系统综述),揭示了医疗人工智能(AI)伦理讨论正从抽象原则转向具体场景化应用。研究发现传统伦理框架(如公平性、隐私、透明度)难以应对AI技术(如大语言模型/LLMs)在专科医疗(如精神科、放射科)中涌现的新挑战(如去技能化、分配正义),强调需结合实证研究和利益相关方参与以解决价值冲突(如准确性vs可解释性)。

  

背景

人工智能(AI)技术正全面渗透医疗领域,从初级诊疗到公共卫生监测。随着机器学习(ML)、神经网络和生成式AI(如ChatGPT)等技术的发展,传统伦理框架面临新挑战。早期讨论多聚焦通用原则(如非恶意、正义),但现实应用揭示出专科场景的特殊性——例如放射科的性别偏见风险与精神科的知情同意困境形成鲜明对比。

方法学创新

研究采用双轨设计:

  • SR1:扫描2021-2023年164篇文献,捕捉前沿争议(如环境可持续性、动物伦理等新兴议题)
  • SR2:分析20篇系统综述(2014-2024),追踪长期趋势(如隐私讨论从数据保护扩展到数据所有权)

核心发现

高频伦理冲突

  • 准确性vs可解释性:深度学习模型性能提升常以"黑箱"为代价,影响临床信任(如癌症筛查假阴性引发的法律责任)
  • 个体vs群体利益:儿科数据共享案例显示,牺牲个体隐私可能换取群体治疗突破(如儿童药物剂量优化)
  • 监管vs创新速度:心血管AI诊断工具面临审批滞后与技术迭代快的矛盾

专科化趋势

  • 精神健康:聊天机器人引发"护理去人性化"忧虑
  • 牙科:3D成像技术缺乏专属伦理指南
  • 公共卫生:疫情预测算法暴露全球南北数据鸿沟

方法论反思

传统五大伦理原则(非恶意、正义等)已显不足。例如:

  • 去技能化(Deskilling):AI辅助诊断导致年轻医生读片能力退化,无法用"非恶意"简单概括
  • 分配正义:LLMs训练成本加剧资源不平等,需结合政治经济学分析

实践建议

  • 参与式设计:通过公民陪审团(Citizen's Jury)协调患者、开发者价值观
  • 伦理学家转型:需掌握算法评估指标(如ROC曲线)以理解性能-伦理关联
  • 动态治理:建立专科化伦理委员会(如放射科AI伦理审查小组)

未来方向

作者呼吁更多"微观伦理"研究:

  • 实证缺口:仅13.4%文献(SR1中23篇)采用质性访谈等实证方法
  • 技术特异性:需区分机器学习(ML)与大语言模型(LLMs)的伦理差异
  • 全球协作:建立跨国医疗AI伦理数据库(类似WHO疫情警报系统)

这项研究预示医疗AI伦理正进入"后原则时代",解决方案将依赖技术细节与临床场景的深度耦合。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号