综述:聊天机器人健康建议研究的报告指南:CHART声明

【字体: 时间:2025年08月02日 来源:Artificial Intelligence in Medicine 6.2

编辑推荐:

  这篇综述介绍了CHAT(Chatbot Assessment Reporting Tool)声明,这是一项针对生成式人工智能(AI)驱动的聊天机器人在提供健康建议(CHA)研究中的报告指南。通过系统评价、德尔菲共识和专家小组会议,开发了包含12项39个子项的标准化报告框架,旨在提高研究的透明度和可重复性,促进临床AI应用的信任与整合。

  

引言

人工智能(AI)在医疗领域的应用突飞猛进,尤其是生成式AI驱动的聊天机器人(如基于大型语言模型LLM的ChatGPT)在提供健康建议(CHA)方面展现出巨大潜力。然而,现有研究在方法学和报告质量上存在显著差异,例如仅40%的研究完整描述了查询策略,这影响了研究结果的可信度。为此,国际多学科团队开发了CHAT报告指南,通过标准化框架提升CHA研究的透明度。

方法学开发

CHAT的制定遵循EQUATOR网络标准,经历三阶段:

  1. 系统评价:筛选7752篇文献,识别137项CHA研究,提炼120项候选报告条目;

  2. 德尔菲共识:531名国际顾问委员通过两轮异步投票,新增28项条目;

  3. 专家小组会议:48名跨领域专家(含临床医生、AI研究员、患者代表)经12小时同步讨论,最终确定12项核心条目。

值得注意的是,为适应AI技术的快速迭代,指南将适用范围从LLM扩展至所有生成式AI,并设立"动态更新机制",每半年评估技术进展对指南的影响。

核心报告框架

CHAT清单涵盖六大模块:

  • 模型标识(条目3-4):要求明确AI模型版本、开源状态及调优细节(如是否基于基础模型或经过微调fine-tuning);

  • 提示工程(条目5):需描述提示词开发流程、参与者背景(如是否包含患者参与),并公开原始提示;

  • 查询策略(条目6):强制报告查询时间/地点、会话分离情况,以及聊天机器人原始输出;

  • 伦理规范(条目12):特别强调患者数据隐私保护措施(如去标识化处理)和版权数据使用许可。

配套的方法学流程图直观展示了从模型选择到结果评估的全流程,帮助研究者规避"黑箱操作"风险。

临床与伦理考量

指南针对四大关键问题提出解决方案:

  1. 版权争议:通过要求公开训练数据来源(条目12e)和版权许可状态(条目12cii),应对生成式AI的"合理使用"争议;

  2. 偏见控制:强制报告模型性能评估中的基准真相(ground truth)定义(条目7a),减少种族、性别等潜在偏见;

  3. 患者安全:设置有害响应评估条目(条目10c),要求识别误导性医疗建议;

  4. 动态更新:设立14人"常设专家小组",采用90%高阈值更新标准,确保指南持续适配AI技术演进。

应用前景

CHAT已获《JAMA Network Open》等六本期刊同步发表,其创新性体现在:

  • 多利益方参与:患者代表全程参与条目制定,确保建议贴近实际需求;

  • 活体指南机制:突破传统报告指南静态模式,建立技术响应式更新路径;

  • 跨学科协同:整合临床医学、数据科学、伦理法学等多维度视角。

未来,随着CHAT的推广应用,结合验证性研究(如标准化性能指标开发),或将加速生成式AI在结肠癌筛查等具体场景中的临床转化,最终实现"人类监督下的AI辅助医疗"生态构建。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号