人工智能时代下的健康公平问题
《Neurology》:Health Equity Considerations in the Age of Artificial Intelligence
【字体:
大
中
小
】
时间:2025年11月22日
来源:Neurology 8.4
编辑推荐:
人工智能在神经病学中的应用具有双重性,既能通过多语言支持、早期疾病检测等促进健康公平,也可能因数据偏差、算法不透明加剧健康不平等。需建立多样化参与的开发机制、强化AI教育培训、完善伦理治理体系。
人工智能(AI)正以前所未有的速度重塑神经学领域,为提升效率、扩大医疗服务可及性以及增强临床决策能力提供了新的机遇。然而,如果缺乏审慎的保障措施,AI也可能加剧或延续现有的健康不平等现象,尤其是在系统性边缘化群体中。本文探讨了AI在神经学护理中的双重潜力,即既是创新的推动者,也可能成为偏见的来源。通过文献综述、利益相关方访谈以及实际案例,我们分析了AI可能加剧健康不平等的风险,包括偏倚的数据集、非代表性的训练人群以及不透明的算法。同时,我们也指出了AI在促进健康公平方面的机遇,例如在资源匮乏地区实现早期疾病检测、提供语言支持工具、改善临床试验的多样性以及实施有针对性的质量改进措施。我们提出了三条指导原则,旨在确保神经学界能够充分利用AI,推动公平性:(1)在AI开发过程中确保多样化的视角和社区参与;(2)拓展神经学医生的AI教育和培训;(3)建立伦理政策和治理机制。这些建议旨在为临床医生、研究人员、教育工作者、医疗机构领导者、政策制定者和专业学会提供可操作的策略,使公平性成为AI设计、实施和监管的每一个阶段的核心。
AI在神经学领域的应用日益广泛,涵盖了从临床决策支持到患者管理的多个方面。当前,AI已被用于神经学诊断、治疗和患者护理的多个环节。例如,研究人员已经证明,深度学习模型可以检测癫痫发作起始区和癫痫样活动,其性能与人类专家相当,并且这些AI方法正在被商业化的EEG软件所采用。此外,AI工具在急性中风的CT和MRI扫描分析中发挥着重要作用,能够识别缺血核心和半影组织,从而指导及时干预。在神经肿瘤学领域,机器学习被用于肿瘤分类,并结合数字病理工具以提高分级和诊断的准确性。AI还在减少行政负担方面显示出潜力,例如语音识别软件用于转录临床会诊并生成临床笔记摘要,大型语言模型(LLMs)则用于生成保险拒付的申诉信和医疗必要性文件。近年来,美国的多个医疗机构开始使用AI自动回复电子健康记录(EHR)中的患者消息,进一步提升了医疗效率。
然而,AI在促进健康公平方面的潜力仍然受到诸多挑战的制约。首先,AI模型的训练数据集往往缺乏对特定人群的代表性,例如种族和民族少数群体、性少数群体、农村居民、低收入社区的居民以及老年人和未授权移民等。这些数据集通常反映的是能够进入医疗体系的患者群体,而忽视了那些面临医疗资源获取障碍的人群。因此,AI模型可能会过度拟合主流模式,从而强化现有的医疗偏见,并未能识别出在代表性不足群体中可能存在的疾病或特定疾病结果。这种偏差可能导致对这些群体的诊断建议不够准确,甚至带来潜在的伤害。
其次,AI算法的不透明性也是健康公平面临的一个重大风险。许多AI模型的决策过程难以解释,这使得医疗专业人员和患者难以理解其推荐的依据。在某些情况下,这种不透明性可能导致误诊或治疗方案选择的偏差,特别是在涉及高风险人群时。例如,一项2019年的研究发现,一个广泛使用的机器学习模型低估了黑人患者的健康需求,因为它将医疗费用作为疾病严重程度的代理指标,而未能考虑不同人群之间医疗资源获取的不平等。类似的问题也出现在脉搏血氧测量数据中,AI模型在处理黑人患者数据时存在不准确的情况。此外,一些AI模型在计算肾功能时直接使用种族信息,这种做法可能进一步强化对种族的刻板印象,并影响临床决策的公正性。
AI还可能通过生成概率性输出而带来风险。这些输出可能受到训练数据的偏倚或不完整性的影响,从而产生错误。更严重的是,AI模型可能被误用,以传播错误信息或操纵图像,这对患者的健康和安全构成潜在威胁。此外,AI系统是动态的,其性能可能会因为模型更新或基础变量之间的统计关系发生变化而受到影响。这种动态性意味着,AI工具在实际应用中可能表现出不同的效果,特别是在不同社会经济背景的群体中。例如,一些低成本的AI工具在资源匮乏的社区中可能表现不佳,这可能会加剧医疗资源分配的不均。
在神经学的临床和诊断应用中,AI的偏倚问题同样值得关注。尽管AI能够增强诊断和治疗决策,但一项研究发现,当临床医生看到系统性偏倚的AI预测时,他们的诊断准确性下降了超过11个百分点。这些AI模型基于不相关的患者属性(如年龄或体重指数)生成偏倚的疾病可能性评分,而临床医生即使在有图像解释的情况下,也往往无法察觉这种偏倚。此外,AI已被用于通过CT胸片和乳腺X光图像预测种族,这种做法即使在人类医生无法识别的情况下也可能发生。这引发了关于深度学习模型是否可能在临床决策中引入基于种族的算法的担忧。在神经影像学中,用于预测“脑龄”的模型在黑人个体中的预测误差显著高于白人和亚洲人群,这表明MRI模型中可能存在种族相关的混淆因素。这种基于影像或EEG的种族推断可能被用于临床决策,但鉴于种族本身是一个社会建构而非生物学特征,它往往与社会决定因素(SDOH)相关联。如果在算法设计中未能细致地纳入这些社会决定因素,AI可能会产生许多有害的假设,从而加剧健康不平等。
为了确保AI能够成为促进健康公平的工具,而不是加剧现有的健康不平等,神经学界需要采取积极而道德的行动。首先,在AI的开发过程中,必须确保多样化的视角和社区参与。这意味着使用能够反映目标人群多样性的数据集,并在模型设计过程中主动引入来自不同背景的专家。例如,斯坦福大学的人工智能与人类中心化人工智能研究所设立了伦理与社会审查委员会,该委员会由技术专家、临床医生、伦理学家和社区代表组成,负责在资金决策前审查AI项目,确保多学科视角指导开发并防范潜在风险。类似地,美国国立卫生研究院(NIH)的“所有之友”(All of Us)数据库旨在招募100万名参与者,研究基因、生活方式和环境之间的关系,并特别关注代表性不足的群体,包括种族和民族少数群体、医疗资源获取受限的人群、不同年龄段的人、低收入或教育水平较低的人、有残疾的人、性少数群体、跨性别者以及农村居民。这些数据集的多样性对于减少AI模型的偏倚至关重要。
其次,神经学医生需要接受广泛的AI教育和培训,以更好地理解和使用这些技术。AI并非中立,其输出反映了训练数据中的偏见。因此,医生必须具备批判性思维,能够评估AI生成的输出是否可靠。目前,一些医学教育机构已经推出了相关课程,例如哈佛医学院的“AI在医疗中的应用:从策略到实施”以及美国医学会的“人工智能与增强智能在医疗中的应用”课程,这些课程为医学界提供了关于AI在医疗中的作用及其伦理考量的必要培训。随着AI技术的不断演进,相关的教育和培训也必须持续更新,以应对新的挑战和机遇。
第三,必须建立伦理政策和治理机制,以确保AI在医疗领域的应用符合核心的生物伦理原则。例如,贝尔蒙特报告(Belmont Report)提出的“有益性”、“尊重个人”和“公正性”原则,可以作为制定AI政策的指导框架。这些原则要求在AI部署过程中引入独立的监督机制,以防止偏倚的AI系统在临床环境中无限制地传播。此外,政策框架还应包括明确的责任机制,以便在AI工具未能按预期运行时,能够迅速响应。例如,患者和医疗专业人员应有渠道报告对AI偏倚或不准确输出的担忧。AI治理不应仅限于一次性的监管过程,而应是一个持续的、适应性的努力,以确保AI与伦理原则和公共健康目标保持一致。
AI在健康保险可移植性和责任法案(HIPAA)合规性方面也面临挑战。随着AI工具在临床研究和护理中的广泛应用,机构审查委员会(IRB)必须具备评估AI相关研究协议的能力,包括算法偏见、数据隐私和参与者保护等问题。特别是对于系统性边缘化群体,他们可能对数据的存储和使用有更高的担忧,包括监控、数据滥用和缺乏透明度等问题。因此,医疗机构和研究机构需要定期评估数据治理政策,明确患者数据(包括数字表型和行为元数据)的收集、存储和共享方式。透明的知情同意流程、对数据二次使用的限制以及允许患者访问或删除其数据的机制,都是建立信任的关键要素。如果缺乏这些保障措施,AI的实施可能会加剧研究参与和护理方面的不平等。
在神经学领域,AI的应用不仅需要技术上的创新,还需要伦理上的考量。AI可以成为提升神经学护理质量的工具,但其潜在的偏倚风险不容忽视。通过确保数据集的多样性、加强AI教育、建立伦理政策和治理机制,神经学界可以引导AI的发展方向,使其成为促进健康公平的有力工具。此外,医疗机构和政策制定者应积极合作,推动AI在医疗领域的公平应用,确保其不仅提高效率,还能够惠及所有患者,无论其社会经济地位、种族、性别或地理环境如何。通过这些措施,AI有望在提升神经学护理质量的同时,缩小现有的健康不平等差距,为所有人群提供更加公平和可及的医疗服务。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号