综述:迈向儿科医疗保健中的人工智能治理

【字体: 时间:2025年11月01日 来源:npj Digital Medicine 15.1

编辑推荐:

  本综述系统分析了人工智能(AI)在儿科医疗领域的应用现状与治理挑战。文章指出,尽管AI正变革医疗,但儿科应用显著滞后于成人医学,且缺乏专门的治理框架。作者通过分析FDA批准的儿科医疗软件(SaMD),揭示了其在放射学领域的集中性及其他专科的不足。本文呼吁建立以儿童为中心的治理体系,强调透明度、包容性参与、公平数据实践和严格的部署后监测,以确保AI在儿科领域安全、负责任地整合。

  
人工智能(AI)技术在过去十年中在医学领域的重要性日益增长,其在诊断、改善患者预后方面展现出巨大潜力。然而,AI在儿科医疗中的应用却远远落后于成人医学。这种差距体现在多个层面:从文献发表数量(成人儿科AI相关文章比例高达26:1),到获得监管机构(如美国FDA)批准的儿科AI医疗设备(Software as a Medical Device, SaMD)数量有限。本文旨在探讨儿科AI治理的现状、挑战及未来方向,为这一关键领域提供系统性综述。
儿科医学中的人工智能现状:成人与儿科AI的比较
儿科AI发展滞后的原因是多方面的。成人人群数据更易获取,涉及儿童研究的伦理和监管复杂性更高,以及开发儿科AI工具的经济激励有限,共同导致了这一差距。通过PubMed检索可以发现,成人医学领域的AI相关文献数量远超儿科,比例失衡。尽管有人认为,鉴于美国人口中18岁以下者占21%,且儿科医疗支出约占总额8%,成人与儿科研究投入存在5:1至10:1的偏差是合理的,但超过25:1的比例明确表明儿科在AI医疗研究中代表性不足。
通过监管视角审视儿科AI现状
为客观评估儿科AI融入临床的现状,作者对FDA批准的儿科AI SaMD进行了聚焦分析。结果显示,针对儿科的AI设备提交数量在过去十年显著增加,尤其是2020年后加速增长。
绝大多数(约80%)儿科AI设备提交集中在放射学领域,其次是神经病学(8%)和心血管应用(5%)。在监管路径上,510(k)路径占主导地位(97.4%),而De Novo路径仅占2.6%。设备用途分析显示,诊断目的占主导(83.9%),其次是监测(8.7%)。地理上,大多数获批设备源自美国。
深入分析用途与专科关系揭示了显著模式:例如,放射学设备绝大多数用于诊断(92.4%),而心血管设备主要专注于监测(70%)。
儿科AI的专业化治理:理论基础与现有框架
治理可广义地视为确保特定工具(如SaMD)安全有效使用的规则体系。对于AI,治理是旨在指导、监管和监督AI开发、部署和使用的系统、政策和过程,以确保其公平、适当、有效和安全(FAVES)。
儿科AI治理因儿童独特的生物发育轨迹而显得尤为重要。
儿童的生物发育指的是儿童发展的关系环境、对该环境的生理适应和反应,以及这一基础对学习、行为和健康结果的累积影响。这种不断演变的生理和认知成熟度在儿童之间差异很大。因此,AI治理政策必须针对儿科特点制定,确保在模型构建和实施中充分考虑生物发育的重大影响。
儿科AI治理的核心原则
儿科AI治理需要一个包含稳健伦理基础、儿童权利原则和医疗AI的定制化方法。一个启发式框架提出了三个核心问题来评估研究的负责任行为:是否真实(Is it true?)、是否良善(Is it good?)、是否明智(Is it wise?)。
  • 真实性(Is it true?):涉及AI的准确性、可重复性和可验证性。算法必须基于全面的儿科人群数据开发,或明确其局限性。模型性能可能在不同医院、人群和单位中表现不同,因此在临床使用前必须进行全面评估。透明度、可解释性以及部署后的持续监控(算法警戒,algorithmovigilance)至关重要。
  • 良善性(Is it good?):AI系统必须改善医疗服务和患者福祉,遵循有利(beneficence)和不伤害(non-maleficence)原则。这意味着AI干预应针对对儿童及其监护人重要的结局,尊重自主权,并维护儿童的权利(如隐私、公平)。数据安全和隐私是重中之重,尤其是在整合来自医疗系统内外多源数据时。
  • 明智性(Is it wise?):这是最具挑战性的标准,涉及评估系统的人员是否合适,提出的问题是否正确。在儿科,这与“最大利益标准”(best interest standard)相交织,当患者意愿未知时,应以保护其福利为出发点。这要求利益相关者(包括临床医生、照护者、患者及家属)的广泛参与。
当前治理模式与监管方法
现有与儿科AI相关的治理框架来源多样,包括国际/国家监管机构、机构和专业组织、行业倡议以及倡导和社区倡议。然而,这些框架大多并非专门针对儿童健康的AI治理,且指导步伐未能跟上模型开发的速度。
儿科AI治理的差距
当前儿科AI治理存在多个显著差距。
这些差距包括:现有框架采用有限、利益相关者参与不足、缺乏有效的偏见缓解策略、过度强调保护可能限制发展机会、缺乏明确的责任追究与执行机制,以及整合儿科AI治理原则的激励措施不足。
安全与公平儿科AI的治理策略
为应对上述挑战,需要在国家和机构层面采取针对性的治理策略。
  • 国家/政府层面:应鼓励采用财务和非财务激励结构支持儿科AI治理方法的采纳;通过协作基础设施创建多样化、高质量的数据集;倡导利益相关者参与;标准化安全数据共享和模型开发方法(如联邦学习,federated learning);建立儿科特异性评估指标;确保公平获取;支持适应性监管路径。
  • 机构层面:应制定标准,强调临床整合和长期模型性能监控。包括强制利益相关者参与设计开发、要求外部验证、遵循FDA的良好机器学习实践(Good Machine Learning Practices)、提高提供者的AI素养、提供可解释性和性能指标、实施转化AI试验(translational AI trials)以及建立可审计和问责的系统。
结论
儿科AI治理对于确保人工智能在儿童医疗保健中安全、伦理和有效地实施至关重要。尽管应用日益增多,但当前的治理框架仍然不足,存在监管 oversight、利益相关者包容、偏见缓解和执行机制等方面的差距。解决这些挑战需要一个以儿科为中心的治理方法,优先考虑透明度、公平性和持续监测,同时整合患者、照护者、临床医生和政策制定者等多元视角。展望未来,协作基础设施、改进/标准化的评估路径以及伦理AI研究的激励措施,对于在儿科医学中促进公平和负责任的AI部署至关重要。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号