综述:人工智能在医学研究中的伦理问题及应对策略
《Translational Dental Research》:Ethical issues and coping strategies for artificial intelligence in medical research
【字体:
大
中
小
】
时间:2025年10月26日
来源:Translational Dental Research
编辑推荐:
本文系统探讨了人工智能(AI)在医学研究中引发的数据隐私与安全、算法偏见、透明度与可解释性以及责任归属四大伦理挑战,并综述了差分隐私(DP)、联邦学习(FL)、可解释AI(XAI)等关键技术策略与国际伦理框架(如WHO指南),为促进AI在医疗领域的可持续发展提供了重要理论参考与实践指引。
背景
随着人工智能(AI)技术的飞速发展,其在医学研究中的应用日益广泛,深刻影响着医学诊断、临床治疗、疾病预防和健康管理等领域。AI的核心优势在于其强大的数据处理和模式识别能力,能够快速分析海量医疗数据,提升诊断过程的精确度和效率。例如,AI在医学影像中的应用显著提高了早期疾病检测的准确性,通过模式识别发现潜在健康问题。在临床研究中,AI系统能通过学习历史病例数据揭示隐藏模式,为临床决策提供支持。在公共卫生领域,AI展现出强大的决策支持能力,如预测疾病爆发和制定预防策略。在药物研发方面,AI加速了新药分子的筛选并优化临床试验设计,推动医学研究的创新。
然而,AI在医学研究中的应用也引发了一系列伦理挑战,主要涉及数据隐私与安全、算法偏见、透明度与可解释性以及责任归属。医疗数据常包含患者的个人敏感信息,AI训练所需的大量数据对数据隐私保护构成严峻挑战。如何在数据安全与有效利用之间取得平衡,尤其是在跨机构共享和AI训练中,成为技术与伦理的双重难题。算法偏见是另一关键问题,若训练数据集中存在与性别、种族或社会经济背景相关的偏见,AI模型可能产生不公正的诊断结果,甚至对某些群体造成歧视性影响。此外,AI模型的透明度和可解释性至关重要,许多深度学习模型存在“黑箱”效应,其决策过程难以解读,削弱了临床医生和患者的信任。在医疗领域,AI决策直接影响患者健康,涉及知情同意和自主权,因此提升透明度和可解释性对建立信任至关重要。AI系统的责任问题也亟待解决,随着AI技术更深入地融入医疗实践,需要明确的法律和伦理框架来界定错误或不良后果的责任。
数据隐私与安全
AI在医学研究中的应用涉及大量个人健康数据的使用,引发了人们对数据隐私和安全的广泛担忧。例如,在使用AI进行诊断或治疗决策时,保护患者个人信息免受未经授权的访问成为关键问题。为应对这一挑战,多种技术方法可有效增强数据安全性和隐私保护。
差分隐私(DP)是一种著名的隐私保护技术,通过向数据中添加噪声来保护个人隐私,同时允许有意义的统计分析。DP的核心机制在于参数ε(epsilon),它控制着隐私保护与数据准确性之间的权衡。具体而言,较小的ε值可确保更强的隐私保护,但可能降低数据准确性;反之,较大的ε值提高数据准确性但削弱隐私保护。DP已被Apple和Google等主要公司广泛采用,以在符合隐私要求的前提下实现数据驱动的洞察。其在医疗领域的潜在价值也在积极探索中,例如,DP可通过防止攻击者推断基因组数据集中可能与特定疾病显著相关的单核苷酸多态性(SNP)来保护基因组隐私。同样,在存储心率、血糖水平等个人健康数据的可穿戴医疗设备中,DP也发挥着关键作用。
联邦学习(FL)是一种分布式机器学习方法,无需共享原始数据即可实现模型训练。在这种范式中,多个节点在本地独立训练机器学习模型,模型更新在中央服务器上聚合,无需集中存储敏感数据。该方法特别适合医疗数据,因为它有效降低了集中存储和数据泄露的风险。通过本地训练并仅传输模型更新,FL最大限度地减少了数据泄露的风险,增强了患者隐私保护。FL在医学影像中受到关注,例如,研究者提出了逆距离聚合(IDA)等新型FL策略,通过基于模型参数统计特性动态调整客户端权重,增强了对非独立同分布(non-IID)和不平衡数据的鲁棒性。
全同态加密(FHE)是一种加密技术,允许直接对加密数据进行计算而无需解密,从而防止潜在的隐私泄露。在医疗领域,特别是当数据需要在云环境中处理时,FHE提供了强大的隐私保护。确保患者数据在存储和处理过程中保持加密状态,可降低数据泄露或滥用的风险。例如,研究者设计的自适应自主协议AutoPro集成了去中心化协议、多个主要/本地医院服务器以及基于快速全同态加密(TFHE)库的算法,应用于糖尿病血糖监测、中风数字血压监测、新冠肺炎(COVID-19)脉搏血氧测定以及心脏骤停心电图(ECG)监测等场景。
区块链技术基于分布式账本提供透明且防篡改的数据管理和共享机制。通过整合区块链技术,医疗数据共享可以实现更高的安全性和可靠性。区块链的分布式账本通过密码学方法和共识机制确保数据完整性和不可变性。在医疗应用中,区块链技术不仅保障数据安全和完整性,还为数据共享提供了更高的透明度和可追溯性,从而增加系统可信度。例如,基于区块链的图像共享使医院系统能够安全地访问和查看患者医学图像。此外,区块链在供应链管理中的价值可延伸至医疗物资物流,如可植入医疗设备和假体的跟踪与分发。
中国近期颁布的《数据安全法》和《个人信息保护法》为医疗AI应用中的数据处理和隐私保护提供了法律框架。这些法律对医疗数据处理的各个环节(包括收集、使用、存储和共享)提出了严格的合规要求,特别强调数据安全和隐私保护。通过对医疗数据实施分级分类管理制度,这些法规确保高度敏感的医疗数据受到最严格的保护措施,从而进一步保障患者隐私和数据安全。
算法偏见
AI系统容易因训练数据的偏差而产生算法偏见,可能导致在诊断或治疗过程中对某些群体的不公正对待。例如,训练数据集中与种族、性别或其他社会经济因素相关的偏见可能被AI系统继承,从而在临床应用中产生类似的偏见决策。因此,制定有效的偏见检测与缓解策略对于增强对AI系统的信任和确保公平性至关重要。
方法识别算法偏见
对抗学习是检测和减轻算法偏见的有效方法。通过在训练过程中加入对抗模块,系统可以识别和减少不公平。具体而言,常见方法是在深度学习模型中嵌入判别模块和关键模块,这些模块独立运作以检测和预测潜在偏见,并利用正交正则化在训练过程中保持其独立性。该方法已在大规模公共皮肤病变数据集上得到验证,显著提高了系统公平性。
数据集的多样性和代表性是识别和减少偏见的关键。研究表明,使用多源数据集可以显著减少AI模型中的偏见。主动学习策略可通过关注现有数据中代表性不足的群体来增强多样性。例如,通过设计数据收集协议确保这些群体在数据集中按比例呈现,可以有效减轻偏见。在口腔颌面影像研究中,近期研究强调了开放数据集的偏见风险和许可挑战,凸显了在牙科实践中应用AI时伦理考量的重要性。
偏见也可能源于代理指标使用不当。例如,在医疗管理系统中,使用医疗费用作为医疗需求的代理指标存在显著局限性。这种方法忽略了种族、性别和社会经济地位等多种因素。某些群体可能因经济限制而减少医疗开支,但这并不反映其实际医疗需求。因此,依赖医疗费用作为代理指标可能延续社会经济或种族偏见,尤其不利于低收入人群。重新定义代理指标,采用多维健康指标至关重要,这些指标应涵盖疾病发病率、健康行为、生活方式和社会经济因素,以更准确地捕捉个体医疗需求并消除潜在偏见。
分类与回归树(CART)算法与一致性评分相结合,可有效识别医疗AI模型中的潜在偏见。CART是一种决策树学习方法,通过递归划分数据集构建模型,能够定位AI系统中可能发生不公正决策的特定区域(称为易偏见区域)。一致性评分衡量模型预测与实际结果的一致性,作为模型可靠性的指标。与CART结合,这些评分有助于精确定位预测差异显著的区域,量化偏见程度,并为缓解策略提供基础。该方法已使用美国佐治亚州格雷迪纪念医院的电子病历数据得到验证,成功高精度地识别和估计了易偏见区域。
方法减少算法偏见
减少算法偏见对于确保AI系统的公平性和公正性至关重要。这一过程涉及多个维度,包括数据预处理、模型优化和决策调整。
两步对抗去偏见方法通过整合部分学习,在保持目标任务性能的同时减少种族差异。该方法的关键原则是不仅要优先考虑偏见缓解,还要确保算法在主要任务中的有效性,这种平衡在医疗诊断中尤为关键。例如,该方法已在独立医学影像案例研究(包括胸部X光和乳腺癌筛查)中展示了减少偏见的潜力。
数据扰动和重采样技术通过修改数据分布来减少模型对特定群体的偏好。数据增强、扰动、重新加权和FL等方法在偏见减少方面有效。值得注意的是合成少数类过采样技术(SMOTE),它通过插值少数类实例的特征合成新样本,有助于平衡类别分布。此外,随机过采样和欠采样技术常用于调整数据集分布,减轻偏见对模型性能的影响。
模型优化策略和阈值校准也能有效减少偏见。无监督表示学习、对抗学习、解耦表示学习、基于损失的方法和基于因果推理的方法等技术在各种任务中显示出效力。例如,对抗学习通过引入对抗样本增强模型泛化能力,而解耦表示学习旨在将任务相关变量与无关变量分离,从而减少潜在偏见。
在某些情况下,抑制自动化AI决策可有效减少自动化偏见。例如,在前交叉韧带(ACL)撕裂的磁共振成像(MRI)诊断中,抑制具有高误导概率的AI诊断输出显著降低了自动化偏见。这种方法凸显了在AI决策过程中人工审核的重要性,以确保准确性和公平性。结合人工审核和决策校准进一步减轻了算法偏见对诊断结果的负面影响。
透明度和可解释性
AI系统常因其决策过程的复杂性而被视为“黑箱”,使得医生和患者难以理解AI生成建议的原理和来源。这种透明度的缺乏会削弱对AI系统的信任,尤其在医疗保健领域,AI决策直接影响患者健康和治疗方案。因此,开发可解释AI(XAI)模型,使医生和患者能够理解AI的决策过程,对于增强信任和提高AI系统可靠性至关重要。
近年来,研究人员开发了各种XAI技术,旨在提高AI模型在医疗应用中的透明度和可解释性。例如,视觉Transformer(ViT)是一种新颖的深度学习模型,在医学图像诊断中展现出显著优势。通过利用自注意力机制,ViT可以突出关键特征,帮助医生和患者理解模型决策的依据。这种方法使AI模型的决策过程更加透明,促进了医疗专业人员与患者之间更大的信任。多维模块优化(MOM)方法在医疗应用中也取得突破,特别是在急性髓系白血病(AML)研究中。MOM将药物筛选结果与遗传事件联系起来,确保预测的可解释性和鲁棒性。使用该方法,研究人员可以预测AML患者对特定药物(如Quizartinib、Trametinib、Selumetinib和Crizotinib)的反应,并通过大规模筛选实验验证这些预测。XAI技术已广泛应用于心脏病学、传染病监测和AML个性化治疗等多个医疗领域,显著提高了诊断和治疗准确性,同时增强了医疗专业人员对AI决策的信任。
为了有效将AI技术融入医疗实践,研究人员提出了“用户在环”方法,强调人机协作的重要性。该方法认为,在AI系统开发和部署过程中,用户的持续参与和反馈至关重要。在医疗保健领域,这意味着医疗专业人员不应仅仅是最终用户,还应作为AI系统改进和优化的关键贡献者。通过将用户反馈纳入AI模型的迭代更新,这些系统可以更好地适应临床需求,从而提高其实用性和准确性。
为了进一步提高AI模型的可解释性,研究人员设计了XAI反馈系统。这些系统旨在提供透明度,使医疗专业人员能够理解AI模型的决策过程。例如,通过领域分析定义解释的概念和背景;通过需求获取和评估得出用例和解释需求;利用多模态交互设计和评估创建解释设计模式库。此类设计方法帮助医疗专业人员更清晰地理解AI系统的行为和决策原理,培养对这些系统的信任和依赖。
然而,尽管XAI在医疗领域取得了进展,仍存在若干挑战。首先,模型准确性与可解释性之间存在显著权衡。随着模型为追求更高准确性而变得更复杂,其可解释性往往下降;反之,更简单的模型虽然易于解释,但可能牺牲准确性。缺乏标准化的评估标准进一步使得不同XAI方法和工具的比较复杂化。保真度、一致性、鲁棒性、效率和充分性等指标需要标准化,以便对XAI系统进行全面、公平的评估。另一个关键挑战是整合特定领域医学知识以增强临床环境中的可解释性。未来的研究方向可能包括应用数据融合技术,结合来自多个来源和模式的信息,以提高模型的可解释性和准确性。这包括模态融合解释、模态关系解释和多模态解释等方法。应对这些挑战需要计算机科学、机器学习、AI、人为因素和心理学等领域专家的跨学科合作。此类协作努力可以推进XAI技术在医疗领域的应用,确保其更加透明、可靠并符合医疗环境的实际需求。
AI系统的责任归属
当AI系统出现错误时,一个关键问题随之产生:谁应承担责任?是开发者、用户,还是AI系统本身?这个问题在法律和伦理层面引发了广泛争论。为应对这些挑战,必须建立明确的责任机制和法律框架,以规范AI系统在医疗领域的应用,并解决AI相关错误引发的法律问题。
AI在医疗决策中的作用必须明确定义。根据现有研究,AI应作为医疗决策的辅助工具,而非取代医疗专业人员的决策权。AI擅长处理海量数据并提供诊断建议和治疗方案,但最终决策权应始终掌握在医生手中。这种划分确保了AI的角色是支持性的而非主导性的,医生与AI共同参与决策过程,以维护患者的自主权。
解决AI带来的法律挑战需要对现有法律框架进行修订和改进。一个潜在的解决方案是引入差异化责任原则,根据具体情境和AI相关错误的性质分配责任。例如,在医疗决策中,如果AI系统产生错误结果,责任可以在开发者、用户(如医生)和患者之间合理分配。此过程必须确保责任分配的公平公正,并为特定场景建立明确的界限。此外,实施强制性AI保险或储备金可以提供风险分担机制,类似于汽车或航空保险。此类系统将确保在AI系统造成伤害的情况下,受害者能及时获得经济补偿,同时有助于在开发者、制造商和用户之间分散风险。这种方法可以减轻AI错误相关的潜在经济损失。设立专门的AI监管机构和制定行业标准对于确保AI技术安全有效应用至关重要。监管机构应监督AI技术的研究、开发和应用,以确保符合伦理和法律要求。同时,明确界定的行业标准将为AI系统的开发和使用提供具体指导和法规,从而最大限度地降低潜在风险并防止滥用。
此外,根据研究,AI在医疗诊断和治疗中的辅助作用要求我们探索当时普遍医疗水平背后合理的医生标准。这意味着,在AI辅助医疗决策过程中,医疗专业人员应遵循“合理医生”标准,即具备适当专业知识和经验的医生在做出医疗决策时应达到的水平。在此基础上,应授予医疗专业人员一定的自由裁量权,使其能够结合AI生成的建议和信息、自身的专业判断以及患者的具体情况做出最终医疗决策。同时,应建立适当的重新评估义务,以确保AI系统提供的建议经过医疗专业人员的必要审查,保证其安全性和准确性。这种方法旨在防止对AI系统的过度依赖并减轻潜在的医疗风险。在AI判断可能存在缺陷的情况下,采用理性算法标准可有效解决设计缺陷的困境,而加强医疗专业人员的特殊披露义务有助于解决警示缺陷的证明挑战。
关于责任归属,应引入“分布式责任”概念以解决责任分配空白。在AI辅助医疗决策中,当直接责任或与特定角色相关的责任不明确时,开发者、用户(如医生)、患者甚至数据提供者和算法设计者应共同承担AI决策的后果。这种责任共担模式有助于填补当前责任分配的空白,确保当医疗错误发生时,所有相关方都对其角色和贡献负责。
AI近期突破及相关伦理考量
脑机接口(BCI)技术的伦理挑战:神经隐私与认知自主
BCI技术近期在神经康复、认知增强和严重残疾患者沟通等领域取得显著进展。例如,Neuralink等公司已证明了侵入式BCI应用在动物和人类志愿者中的可行性,使瘫痪患者能够通过神经信号控制外部设备甚至实现“意念打字”。然而,这些突破伴随着深刻的伦理关切。首先,存在神经隐私泄露的风险。BCI可直接访问反映情绪、意图甚至潜意识过程的神经活动,生成极其敏感的“神经数据”。此类数据的滥用或泄露可能导致“思想监控”或“神经黑客攻击”,构成对个人隐私的严重侵犯。其次,出现认知自主和身份问题。长期依赖BCI可能模糊“自我”与“技术”之间的界限,引发设备介导的干预是否损害个体决策自由或带来“认知殖民”和“神经操纵”风险的疑问。第三,知情同意的复杂性带来伦理困境。对于有意识障碍或闭锁综合征的患者,表达和判断力的限制引发了对BCI试验同意是否真正知情和自愿的质疑。
AI驱动的创新药物设计:算法不透明与责任归属
AI在药物发现和开发中的应用进展迅速。例如,AlphaFold2成功预测了超过2亿种蛋白质结构,极大地加速了靶点识别和药物分子设计。Atomwise和Insilico Medicine等平台已进入临床试验阶段,显著缩短了新药开发时间线。然而,伦理关切随之而来。首先,算法不透明的黑箱问题使责任归属复杂化。药物设计中的AI模型通常依赖深度学习方法,其决策机制仍然 largely 不透明。如果AI生成的分子后来在临床环境中被证明有毒或无效,在开发者、医生和患者之间归责将极具挑战性。其次,数据偏见和代表性问题普遍存在,因为训练数据集主要来自西方人群,缺乏种族、性别和地理多样性。这可能导致药效不均并加剧全球健康不公平。第三,出现技术垄断和公平获取问题。药物发现的AI平台主要由大型科技公司或跨国制药公司控制,为小型研究机构或中低收入国家设置了壁垒。这种集中风险导致“算法霸权”和知识垄断,可能破坏全球医疗保健创新的公平性。
伦理框架
在医学研究中应用AI技术时,必须严格遵守相关法律法规,并符合伦理框架,以确保其安全性、有效性并符合伦理标准。
世界卫生组织(WHO)发布了《人工智能促进健康的伦理治理》指南,概述了六项基本原则:安全性、有益性、公平性,并最终以人为中心。这些原则强调尊重和保护个人隐私、确保数据安全以及明确各方责任的必要性,从而促进AI技术在医疗保健领域的伦理应用。这些指南为AI在临床实践中的部署提供了坚实的伦理基础,确保患者权利和安全得到保护。
欧盟发布了《可信AI伦理指南》,强调四项关键伦理原则:尊重人类自主性、防止伤害、公平性和可解释性,并提出了实现这些原则的七项基本要求,如人类监督、技术鲁棒性和安全性、隐私以及数据治理。这些要求有助于确保AI系统的伦理完整性,并使其在医疗实践中得到适当应用。在美国,食品药品监督管理局(FDA)推出了专门针对基于AI/机器学习(ML)的医疗器械软件(SaMD)的监管框架。该框架概述了通过修改主动迭代改进AI/ML模型的方法,同时确保持续的安全性和有效性。它提出了预定变更控制计划的原则,包括两个关键组成部分:SaMD预规范(SPS)和算法变更协议(ACP)。这些机制允许制造商预先定义预期的修改类型及实施方法,从而为自适应AI/ML软件提供简化的监管路径。重要的是,该框架确保持续更新不会损害患者安全,同时保持监管监督和透明度。
在医疗AI的应用中,确保算法的透明度和公平性以避免自动化偏见带来的潜在法律风险至关重要。在做出医疗决策时,医疗专业人员必须考虑患者的病史和当前症状,遵守相关法律、法规和伦理标准,制定合适的治疗方案。
在医疗AI的实施中,必须进行持续监测和评估,以及时识别和解决潜在问题,确保患者和参与者的安全与健康。为实现这一目标,可引入利益相关者分析和负责任创新框架,强调技术进步应与伦理标准同步发展。只有在合理的伦理评估指南下,才能有效确保医疗AI的伦理实践。此外,建立持续评估机制,确保以患者为中心的人机交互,并不断完善注册和上市后监管体系,是保证AI应用符合伦理要求的关键措施。
在中国,国家药品监督管理局(NMPA)于2021年发布了《人工智能医用软件产品分类界定指导原则》,明确了AI医用软件的定义和分类标准。2022年,NMPA进一步发布了《人工智能医疗器械注册审查指导原则》,规范了AI医疗器械的管理。此外,NMPA还发布了其他几项指导文件,如《深度学习辅助决策软件指导原则》和《医疗器械产品技术要求编写指南》,为AI医疗器械的管理提供了更详细的技术规范和实施规则。
展望
未来,随着AI技术的不断进步和医学研究的深入发展,AI在医学研究中的应用将更加广泛和深刻。为应对随之而来的伦理挑战,必须不断加强技术创新和伦理规范建设。一方面,我们需要通过开发更先进、更安全的隐私保护技术,增强算法透明度和可解释性,以及完善责任归属机制来解决当前的伦理问题。另一方面,需要加强国际合作与交流,共同制定和完善相关的伦理框架和法律法规,确保医学研究中的AI技术符合伦理标准,保护患者和参与者的权益。同时,必须加强公众教育和宣传,提高公众对AI技术的认识和理解,促进AI与医学研究的良性互动和发展。
正如尤瓦尔·赫拉利所警示,21世纪可能见证新的“硅幕”出现,一边是尽管存在分歧但仍能相互理解的人类,另一边是以人类难以跟上的速度进化、可能很快超越人类理解能力的超级智能。作为医疗保健专业人员和研究人员,我们必须深入参与这一关乎人类未来的变革过程,成为连接技术与人类的桥梁。我们有责任确保技术发展始终服务于人类的福祉,守护健康与尊严。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号