大型语言模型在儿科医疗知情同意中的应用:支持决策制定的伦理考量与创新路径

【字体: 时间:2025年08月07日 来源:Journal of Medical Ethics 3.4

编辑推荐:

  这篇综述探讨了大型语言模型(LLMs)如何革新儿科知情同意(informed consent)流程,通过提供交互式、年龄适配的医疗解释,平衡儿童自主权(autonomy)与最佳利益原则。文章系统分析了LLMs在Gillick competence评估、家庭争议调解中的潜力,同时警示其可能引发的伦理风险(如自动化说服、数据隐私),提出需以人类临床判断为核心的设计框架。

  

大型语言模型重塑儿科知情同意的伦理与实践

摘要

儿科知情同意过程面临儿童认知能力差异、家庭动态复杂等独特挑战。大型语言模型(LLMs)通过生成个性化医疗解释,有望弥合信息鸿沟。但这一技术应用需谨慎平衡儿童自主权发展与最佳利益保护,避免算法偏见或不当影响。

引言

不同于成人医疗,儿科决策涉及父母、儿童和医生的三方互动。法律框架如英国《1989年儿童法案》规定父母对无行为能力儿童拥有主要决策权,而Gillick competence原则承认部分未成年人的独立决策能力。LLMs的介入可能解决传统沟通障碍:临床环境压抑儿童表达、信息理解差异、家庭意见分歧等。案例研究显示,LLMs能通过多轮对话帮助11岁脊柱侧弯患者Emily理解手术影响,同时协调父母分歧。

LLMs支持的儿科同意分层方案

低龄儿童(无Gillick能力)

决策权完全归属父母,LLMs主要功能包括:

  • 将专业术语转化为儿童友好语言(如用"带闪光灯的软管"比喻内窥镜)

  • 通过卡通形象、语音交互降低沟通压力

  • 自动标记家庭争议供医生干预

青少年(Gillick能力待定)

系统设计需支持能力发展:

  • 提供渐进式信息深度(如对8岁与12岁儿童差异化解释内窥镜检查)

  • 独立对话空间保护隐私,同时允许自愿性家庭共享

  • 记录决策过程证据链辅助临床能力评估

16-17岁(推定能力)

法律地位接近成人,但需特殊考量:

  • 默认提供成人级医疗信息,保留简化选项

  • 严格身份验证防止父母越权访问

  • 处理治疗拒绝时避免算法反复施压

伦理争议焦点:从说服到操纵的边界

LLMs的"劝说"功能存在三重风险:

  1. 年龄差异敏感性:儿童易将AI拟人化,12岁以下对个性化说服的抵抗力仅为成人的30%

  2. 算法持久性:人类医生通常仅1-2次劝说,而LLM可能无限次触发"再考虑"提示

  3. 情感识别缺陷:现有模型难以准确捕捉家庭对话中的非语言冲突信号

家庭决策的算法协调策略

针对常见矛盾场景:

  • 单亲主导决策:允许异地父母通过LLM同步获取治疗成功率等统计数据

  • 宗教相关争议(如割礼):自动生成中立医学事实清单,标记需双亲同意的法律条款

  • 监护权纠纷:记录各版本交互日志供法庭取证

信任构建的技术实现

关键保障措施包括:

  • 启动页明确告知"儿科医生将查看所有对话"

  • 青少年保密请求分级处理:Gillick能力者可加密部分记录

  • 多模态预警系统:

    ? 显性标记:直接表达"我害怕手术"

    ? 隐性模式:同一风险项反复查询达5次触发人工复核

结论

LLMs作为辅助工具可优化传统知情同意的四大瓶颈:信息不对称、时间限制、儿童参与不足、文档不完整。但必须坚持三项核心原则:人类医生保留最终裁量权、算法设计避免价值观植入、不同发育阶段采用差异化交互协议。未来需重点验证LLMs对家庭决策质量的实际影响,而非仅追求技术效率提升。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号