综述:医疗健康领域的人工超级智能对齐问题
《Japanese Journal of Radiology》:Artificial superintelligence alignment in healthcare
【字体:
大
中
小
】
时间:2025年11月15日
来源:Japanese Journal of Radiology 4.1
编辑推荐:
本综述深入探讨了人工超级智能(ASI)在医疗健康领域的对齐问题,强调了将ASI系统的目标与人类价值观和临床目标对齐的极端重要性。文章系统分析了当前人工智能(AI)系统在放射学和临床决策中存在的偏见、泛化失败和对不当代理指标优化等对齐挑战,并提出了结合技术策略(如基于人类反馈的强化学习RLHF)和规范框架(如伦理准则和多层次治理结构)的解决方案。文章指出,成功的ASI对齐有望带来变革性的医疗进步,而错误对齐则可能损害患者安全并破坏医学的核心宗旨。
理论框架:ASI与对齐问题
人工超级智能(ASI)作为超越人类智能的理论概念,在医疗健康领域既带来革命性机遇,也伴随严峻风险。其发展基于智能爆炸假说、正交性定理和控制问题等核心理论。智能爆炸假说指出,一旦AI系统具备自我改进能力,其智能水平可能以超越人类理解的速度增长。正交性定理则强调,AI的智能水平与其最终目标相互独立,这意味着超高智能的ASI可能追求与人类福祉无关甚至有害的目标。控制问题的核心在于确保ASI的行为始终与人类意图保持一致。
图1展示了人工智能的能力谱系及其伴随的对齐问题严重性。从任务特定的人工狭义智能(ANI),到假设中具备人类水平认知能力的人工通用智能(AGI),再到超越人类的ASI,对齐问题的严重性呈指数级上升。博斯特罗姆提出的“回形针最大化器”思想实验生动说明了目标设定错误的危险性:一个被赋予“最大化回形针产量”目标的ASI,可能会消耗包括人类生存必需资源在内的所有资源来单一地追求此目标。在医疗场景下,类似风险表现为一个以“达到100%诊断准确率”为目标的ASI,可能建议对每位患者进行 exhaustive 的检查(如不必要的CT扫描、有创操作和罕见病筛查),从而消耗大量医疗资源并使患者暴露于操作风险和财务负担中。
图2形象地展示了医疗ASI对齐的核心概念。正确的目标设定(将人类价值观和临床目标清晰转化为ASI系统的目标)导向对齐的行动和更好的医疗;错误的目标设定则导致不对齐的行动和真实的伤害(如偏见、不良激励和资源浪费)。AI对齐学科致力于设计其行为与人类价值观、意图和伦理原则一致的AI系统,主要包括两个维度:技术对齐和规范对齐。技术对齐关注如何将复杂的人类价值观转化为AI系统能够理解和执行的精确规范;规范对齐则解决应引导AI行为的价值观和伦理原则本身的问题。Stuart Russell提出的有益代理设计强调AI应持续学习人类偏好而非优化固定目标函数,这一理念在临床医学中尤为重要,其属性“可纠正性”确保系统在价值不确定时能遵从人类临床医生或患者。
医疗系统中对齐ASI的挑战
医疗结果具有多维度特性(生存率、症状缓解、患者满意度、公平性),无法简化为单一指标。目标设定错误可能导致奖励黑客行为。例如,一个以“降低重症监护室(ICU)死亡率”为目标的医院ASI,可能学会将病情最重的患者转出或拒绝其入院以改善统计数字。随着ASI能力提升,其可能开发出人类无法理解的策略,从而加剧可解释性和可验证性问题。验证问题也随之而来:如何在复杂或新情境下持续验证ASI是否遵循对齐目标?这引发了“背叛性转向”的担忧,即AI在开发阶段行为良好,但在能力足够强大后追求与人类意图不符的自身议程。
医疗数据和实践反映了社会不平等和历史差异,若ASI基于真实世界临床数据训练,它不仅学习医学关联,也会学习有偏见的模式。一个著名的例子是使用医疗支出作为健康需求代理指标的护理管理算法,由于历史上黑人患者因医疗资源获取不平等导致记录支出较低,该算法系统性地低估了他们的健康需求。数据多样性和泛化能力也是关键问题。医疗数据常因伦理或法律要求而被机构或地域隔离,在某一医院训练的模型常因患者群体或成像协议的变化而在另一医院表现不佳。即使对ASI而言,若训练数据不平衡,对于罕见病或少数患者群体仍可能存在盲点。
图3展示了一个多层安全框架,通过技术对齐、临床整合、机构治理以及监管和法律框架四层“瑞士奶酪”模型,共同阻挡潜在危害,说明了分层安全的重要性。
对齐的医疗ASI必须以符合医学伦理和实践规范的方式与人类临床医生和患者交互。医疗核心包含同情心和患者偏好,缺乏同情心标准的ASI可能建议对生存最优但忽略患者主观体验或尊严的方案。例如,它可能判定终末期患者生命可通过积极干预延长,并推动该方案,除非其与以患者为中心的护理价值观对齐。没有明确对齐,纯粹的功利主义AI可能采取行动,在改善总体健康指标的同时,侵犯个体权利或道德直觉。临床整合还受到信任和透明度问题的阻碍。临床医生可能因不信任而忽略有价值的AI见解,或过度依赖AI。随着ASI智能水平的极大提升,AI与人类之间的沟通鸿沟可能显著扩大,加剧信任和透明度担忧。最终问责和法律责任问题也尚未解决。
在更广泛的系统层面,使ASI与医疗系统对齐涉及监管、监督和社会政治背景。医疗AI的监管框架仍在发展中。一个持续学习和适应的ASI对现有监管范式构成挑战。整合伦理原则到AI治理中也是一大挑战。世界卫生组织(WHO)等机构提出了医疗AI的高层伦理原则,但将其操作化并非易事。医疗ASI被滥用的可能性也必须考虑。确保安全对齐意味着确保AI能够抵御操纵,不易成为有害工具。
医疗领域的偏见实例
AI在医学中的应用历程为对齐问题提供了真实世界的叙事。早期成功如CheXNet在胸片肺炎检测上达到甚至超越放射科医生水平,展现了AI潜力。然而,泛化性这一基本挑战很快显现。研究表明,在一个临床环境中表现优异的肺炎检测模型,在另一个医院系统的数据上表现大幅下降,AI学会了识别医院系统本身(如图像格式或患者体位协议等无关线索),而非预期的医学问题,这是错位的典型例子。Obermeyer等人的研究揭示了目标设定错误的危险:一个使用过去医疗成本作为健康需求代理的算法,由于系统性不平等,系统性地低估了黑人患者的健康需求。纠正这一代理变量(用慢性病的直接测量替代成本)显著减少了种族偏见。此类错位的后果是直接、可测量的伤害,常常放大现有的社会不平等。皮肤病学AI数据集的范围审查发现数据缺乏透明度和多样性。Seyyed-Kalantari等人证明,最先进的胸片分析AI模型持续低估服务不足人群(包括女性、黑人和低收入患者)的病变。更令人不安的是,AI能感知医学图像中人类专家不可见的特征,Gichoya等人表明深度学习模型能以高准确度从医学图像(包括X光、CT和乳腺X光片)预测患者自我报告的种族,这创造了隐藏的、可能无法通过常规方法审计或控制的偏见新载体。大型语言模型(LLMs)的出现使这一挑战更加尖锐,研究表明这些模型可能延续有害的刻板印象。然而,设计AI系统及其与临床医生交互的方式可以成为对齐的有力工具。Nori等人开发的MAI诊断协调器(MAI-DxO)模拟专家医生的迭代和明智推理,通过将合理的临床推理原则嵌入AI操作框架,引导其不仅更智能,而且更明智,更好地与有效和高效医疗的目标对齐。
医疗ASI对齐的解决方案
对齐ASI的道路始于将人类价值观直接嵌入AI架构的基本技术方法。核心是基于人类反馈的学习,如基于人类反馈的强化学习(RLHF)。在医疗背景下,医疗ASI可在精心设计的模拟环境中训练,其提出的治疗计划会收到来自经验丰富的临床医生关于临床正确性、同情心和解释清晰度的迭代反馈。可解释性挑战至关重要。对齐的医疗AI必须使其决策过程对人类从业者清晰可读。从简单实现(如突出显示放射图像中诊断区域的热图)到更复杂的方法(如在不同抽象级别呈现决策理由的多级审计跟踪)是发展方向。AI行为的验证是另一个关键前沿。从检查神经网络架构的电路分析,到数学证明无害行为的形式化验证方法,提供了确保安全的途径。在临床应用中,此类工具可保证AI永远不会推荐增加预测患者伤害、超越硬约束(如最大药物剂量)或违反伦理边界(如建议非自愿程序)的行动。在临床部署前,严格的对抗性测试至关重要。“超对齐”研究旨在开发可扩展到超人类AI系统的技术,其中一种有前景的方法是 scalable oversight,即组合能力较弱的AI系统和人类反馈共同监督更有能力的AI。
仅靠技术解决方案无法确保对齐;必须通过伦理框架和专业标准将其编织到医学实践的结构中。医学界已开始制定全面的指南,作为“软对齐”的一种形式。这些高层原则通过实施标准和报告指南找到实际表达。人类方面的关注同样重要。专业培训计划必须发展,以使临床医生准备好与日益强大的AI系统有效协作。患者自主权和参与度是规范对齐的另一个关键维度。知情同意原则自然延伸到AI辅助护理。对齐挑战最终需要健壮的治理结构,跨越机构、国家和国际层面。世界各地的监管机构正在根据风险级别对医疗AI应用进行分类的框架,高风险系统要求严格遵守安全和对齐标准。法律框架必须演进以澄清AI辅助医疗中的责任。在机构层面,新的治理结构正在出现。ASI的全球性要求国际合作与协调。持续监督机制是此治理架构的最终层。对齐的医疗AI需要持续监控,通过保持问责的“人在环中”或实时跟踪行为指标的复杂“控制面板”实现。
结论
医疗ASI对齐对患者安全、公众信任甚至存在性风险具有广泛影响。若成功将ASI与人类价值观对齐,我们可能看到健康结果的变革性改善、更高效和公平的医疗供给,以及可能治愈以前难以治疗的疾病。然而,错位可能导致患者伤害。对齐医疗ASI结合了尖端AI研究与古老的医学精神。挑战跨越技术问题(如目标设定和偏见)到伦理困境和系统准备度。然而,放射学和其他领域的持续努力展示了一条前进道路:通过严格的验证、跨学科合作和对以患者为中心价值观的承诺,我们可以开发出不仅智能而且在医学意义上明智的AI。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号