综述:人工智能与肿瘤学决策:伦理、法律及知情同意挑战综述

【字体: 时间:2025年06月18日 来源:Current Oncology Reports 4.7

编辑推荐:

  这篇综述系统探讨了AI(Artificial Intelligence)在肿瘤治疗决策中的伦理困境与法律挑战,涵盖算法透明度、数据隐私及动态知情同意(dynamic consent)等核心议题,为临床整合AI-CDSS(Clinical Decision Support Systems)提供了PRISMA指南循证框架。

  

人工智能重塑肿瘤治疗决策的机遇与挑战

Abstract
AI技术正通过临床决策支持(CDSS)变革肿瘤治疗,提升治疗精准度的同时引发伦理与法律争议。PRISMA 2020系统综述揭示,15项研究证实AI可优化治疗方案、个性化给药(如CURATE.AI平台),但算法"黑箱"、责任界定模糊及患者理解不足构成主要障碍。

Introduction
AI在肿瘤学的应用涵盖基因组学、影像组学等多模态数据,但模型效能受限于训练数据质量。医疗从业者需同步应对GDPR/HIPAA合规性、算法偏见等挑战,而"大数据"时代的核心命题仍是平衡技术创新与患者自主权。

Methods
基于PICO框架的系统检索(2015-2025年)筛选出15项研究,涵盖LLM(如ChatGPT)、随机生存森林等AI技术。三位研究者独立采用Cohen’s kappa系数评估文献,重点关注治疗推荐、药物剂量优化(如PRECISE试验)及患者管理场景。

Results

  • 治疗推荐增强:ChatGPT-3.5在81%病例中与专家建议一致,但化疗方案精确度仅65%(Stalp et al., 2024)。ADBoard工具显著提升多学科会诊(MDM)效率,减少30%行政负担(Ng et al., 2023)。
  • 精准给药突破:CURATE.AI实现个体化剂量调整,医生依从性达89%(Tan et al., 2021)。分子肿瘤委员会(MTB)中AI模型较传统建议更贴近共识方案。
  • 患者管理革新:机器学习预测口服抗癌药依从性(AUC 0.88),ASCAPE项目通过AI随访降低20%毒性干预(Tzelves et al., 2022)。

伦理与法律困境

  • 透明度危机:XAI(可解释AI)工具如SHAP值未能完全破解深度学习模型的决策逻辑(Curia, 2021)。
  • 责任真空:欧盟法院尚未明确AI误诊时开发者/医师的责任划分(Gowda et al., 2021)。
  • 知情同意革新:动态同意模型要求持续披露AI参与度,但83%患者仍不理解算法风险(Hesjedal et al., 2024)。

Discussion
算法偏见(如非裔患者数据缺失导致30%预测偏差)和监管滞后是主要瓶颈。ESMO建议建立欧洲AI监管机构,而中国肿瘤学家对AI替代风险分歧显著(Li et al., 2024)。未来需开发"患者-AI-医师"三方决策框架,并开展RCT验证CDSS临床效益。

临床实践关键建议

  1. 立法规范训练数据集种族多样性(亚裔数据占比<15%的模型需强制修正)
  2. 设立AI决策验证委员会(参照FDA 510(k)标准)
  3. 开发患者友好型同意书模板(集成可视化风险图谱)

Conclusion
AI-CDSS在肿瘤学呈现"技术超前于伦理"的特征。通过建立跨学科治理联盟、采用联邦学习(Federated Learning)保障数据安全,有望实现从精准预测到负责任临床整合的跨越。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号