综述:关于人工智能在医疗保健领域伦理问题的不断发展的文献:一项PRISMA范围评估

《Frontiers in Digital Health》:The evolving literature on the ethics of artificial intelligence for healthcare: a PRISMA scoping review

【字体: 时间:2025年11月21日 来源:Frontiers in Digital Health 3.8

编辑推荐:

  人工智能在医疗保健中的伦理挑战及研究趋势:系统综述分析2020-2024年文献,发现偏见、透明度和公平性最常被讨论,而患者结果披露、法律责任和接受度研究不足,需加强实证研究以指导临床应用。

  人工智能(AI)在医疗健康领域的应用正在迅速发展,为疾病预防、诊断和治疗带来了新的可能性。这一技术的普及不仅提高了医疗服务的效率,还降低了成本,改善了患者护理体验。然而,AI的广泛应用也引发了诸多伦理问题,这些问题可能成为临床采纳和政策制定的重要障碍。本研究通过一项系统性的文献综述,分析了2020年至2024年间关于AI医疗工具伦理问题的研究,旨在识别研究趋势、共识与分歧,并揭示尚未充分探讨的伦理挑战。研究发现,尽管AI在医疗领域的潜力巨大,但当前的研究重点仍然集中在某些伦理议题上,而其他关键问题则未得到足够关注。

### 人工智能与医疗健康:机遇与挑战并存

AI技术在医疗健康领域的应用涵盖了从疾病诊断到个性化治疗的多个方面。通过机器学习、深度学习等算法,AI能够分析海量的医疗数据,发现潜在的疾病模式,预测病情发展,并辅助医生制定治疗方案。这些能力不仅提高了医疗决策的准确性,还使得某些疾病的早期检测和干预成为可能。例如,在影像诊断中,AI能够识别医学影像中的异常特征,帮助放射科医生更快地做出诊断;在慢性病管理中,AI系统可以持续监测患者的健康状况,提供个性化的健康建议。这些应用极大地推动了医疗行业的进步,使得医疗资源的利用更加高效,患者的治疗效果也得到了提升。

然而,AI技术的引入也带来了前所未有的伦理挑战。这些挑战不仅涉及技术本身的设计和运行,还延伸到其对患者、医护人员以及整个医疗体系的影响。伦理问题的复杂性在于,AI工具的使用涉及到数据隐私、算法透明度、责任归属、患者自主权等多个层面。因此,理解这些伦理问题的演变趋势对于确保AI技术在医疗领域的负责任应用至关重要。

### 研究方法与过程

本研究采用了一种系统性的文献综述方法,即PRISMA-ScR(Preferred Reporting Items for Systematic reviews and Meta-Analyses extension for Scoping Reviews),以全面梳理2020年至2024年间关于AI医疗工具伦理问题的研究。研究团队首先制定了详细的搜索策略,使用PubMed和Web of Science两个数据库进行检索,并结合结构化的关键词,以确保涵盖所有相关文献。搜索结果经过三轮筛选,包括标题、摘要和全文的评估,以确保研究的严谨性和代表性。最终,研究团队共纳入了309篇文献,其中包括67.3%的概念性文章和32.7%的实证研究。

在数据提取过程中,研究团队利用Qualtrics问卷对每篇文章的关键信息进行了系统性整理,包括研究类型、AI技术的具体应用、涉及的伦理问题以及相关的法律和政策议题。随后,数据被导入R版本4.3.1进行清洗和描述性统计分析,以揭示不同伦理议题的出现频率及其随时间的变化趋势。

### 伦理问题的分布与演变

研究结果表明,伦理问题在AI医疗工具的讨论中占据核心地位。其中,**偏见**是最常被提及的伦理问题,出现在62.5%的文献中。偏见主要源于训练数据的代表性不足,或者算法本身对某些群体存在系统性偏差。例如,有研究指出,某些医疗AI系统在处理健康数据时,由于数据来源的局限性,导致对少数族裔群体的诊断或治疗建议存在不公平性。这种偏见不仅影响了AI系统的公正性,还可能加剧现有的医疗不平等现象。

**透明度**和**公平性(正义)**也是频繁被讨论的伦理问题,分别出现在55.0%和56.6%的文献中。透明度问题主要涉及AI系统的“黑箱”特性,即AI如何做出决策、推荐何种治疗方案,以及这些决策是否可解释。许多研究指出,由于AI系统的复杂性,医护人员和患者难以完全理解其工作原理,这可能导致信任问题。此外,透明度不足还可能影响AI工具的监管和审查,使得其在临床中的应用面临更多不确定性。

**责任归属**和**患者隐私**同样是重要的伦理议题。在责任归属方面,研究发现尽管有部分文献探讨了AI工具导致医疗错误时的责任划分,但整体上这一问题仍未得到充分解决。一些学者认为,AI工具的使用不应完全免除医生的责任,医生仍需对AI提供的信息进行审慎评估,并承担最终的医疗决策责任。然而,也有观点认为,AI工具的开发者和使用者都应承担相应的责任,尤其是在AI系统出现故障或误判的情况下。

患者隐私问题则涉及AI系统在处理和存储大量敏感医疗数据时的安全性。AI医疗工具通常依赖于患者的历史病历、基因信息、影像资料等数据进行训练和优化,但这些数据的收集、存储和使用过程可能面临隐私泄露的风险。因此,如何在确保AI系统有效运行的同时,保护患者隐私,成为研究者和政策制定者共同关注的问题。

此外,**自主权**(即患者对自身医疗决策的控制权)也是一个备受关注的伦理议题。AI在医疗决策中的介入可能会削弱患者的自主权,尤其是在患者对AI系统缺乏理解或信任的情况下。因此,研究者呼吁在AI医疗工具的设计和应用过程中,应充分考虑患者的知情同意和自主决策能力,确保AI工具的使用不会侵犯患者的权利。

相比之下,**AI生成结果的披露**(即向患者说明AI在医疗决策中的作用)则被较少提及。仅有8.1%的文献涉及这一议题,尽管这一问题在伦理学界被认为是AI医疗应用中不可或缺的一部分。披露AI结果的必要性在于,患者有权了解其医疗决策是否受到AI的影响,以及AI在其中扮演了怎样的角色。然而,目前的研究仍普遍缺乏对这一问题的深入探讨,这可能与AI技术的快速发展以及相关法规的滞后有关。

### 法律与政策议题的演变

除了伦理问题,本研究还分析了法律和政策相关议题的出现频率。研究发现,**可靠性与准确性**是法律和政策讨论中最常见的主题,出现在51.5%的文献中。这一议题主要关注AI工具在临床应用中的表现是否可靠,其诊断或治疗建议是否准确。由于AI系统的复杂性,其可靠性往往难以完全保证,尤其是在面对罕见病或复杂病情时。因此,如何确保AI工具的可靠性,成为医疗监管机构和研究者关注的重点。

**法律责任**是另一个重要的法律议题,出现在29.1%的文献中。研究指出,AI工具在医疗决策中的应用可能引发法律责任,尤其是在AI系统出现误诊或错误建议的情况下。一些学者认为,医生应承担主要的法律责任,因为最终的医疗决策仍然由医生做出。然而,也有观点认为,AI工具的开发者和使用者都应承担一定的责任,尤其是在AI系统的设计或使用过程中存在明显疏忽的情况下。

**患者接受度**和**医护人员接受度**则是法律和政策讨论中较少涉及的议题。这两类问题分别出现在25.6%和24.3%的文献中,表明目前的研究仍缺乏对患者和医护人员对AI医疗工具的态度和接受度的深入分析。这可能是因为AI技术的普及尚未达到足以影响患者和医护人员日常决策的程度,或者是因为相关研究仍处于早期阶段。

### 研究的局限性

尽管本研究对AI医疗工具的伦理和法律问题进行了全面梳理,但仍存在一定的局限性。首先,研究仅限于PubMed和Web of Science两个数据库,这可能导致某些重要文献被遗漏。其次,研究的时间范围较短(2020年至2024年),无法全面反映AI伦理问题的长期演变趋势。此外,研究仅包括英文文献,这可能忽略了非英语国家在AI伦理研究方面的贡献。

### 研究的启示与未来方向

本研究揭示了AI医疗工具伦理问题的现状和趋势,同时也指出了当前研究中存在的显著空白。这些空白主要集中在**AI生成结果的披露**、**法律责任**以及**患者和医护人员的接受度**等议题上。为了确保AI技术在医疗领域的负责任应用,未来的研究应更加关注这些问题,特别是在临床实施过程中可能遇到的具体挑战。

此外,研究还发现,尽管AI在医疗领域的应用正在迅速扩展,但大多数研究仍停留在概念性分析阶段,缺乏实证数据的支持。因此,未来的研究应加强实证研究,通过实际案例和临床数据,更准确地评估AI工具在实际应用中的伦理影响。这不仅有助于制定更加科学的伦理标准,还能为政策制定提供依据,确保AI技术在医疗领域的安全、公正和可持续发展。

总之,AI在医疗健康领域的应用带来了巨大的机遇,同时也伴随着复杂的伦理和法律挑战。为了推动AI技术的负责任应用,研究者、政策制定者和医疗从业者需要共同努力,深入探讨这些关键问题,并制定相应的解决方案。只有在充分理解AI伦理问题的基础上,才能确保这一技术真正造福患者,提升医疗服务质量。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号