
-
生物通官微
陪你抓住生命科技
跳动的脉搏
综述:聊天机器人健康建议研究的报告指南:CHART声明
【字体: 大 中 小 】 时间:2025年08月02日 来源:Artificial Intelligence in Medicine 6.2
编辑推荐:
这篇综述介绍了CHAT(Chatbot Assessment Reporting Tool)声明,这是一项针对生成式人工智能(AI)驱动的聊天机器人在提供健康建议(CHA)研究中的报告指南。通过系统评价、德尔菲共识和专家小组会议,开发了包含12项39个子项的标准化报告框架,旨在提高研究的透明度和可重复性,促进临床AI应用的信任与整合。
人工智能(AI)在医疗领域的应用突飞猛进,尤其是生成式AI驱动的聊天机器人(如基于大型语言模型LLM的ChatGPT)在提供健康建议(CHA)方面展现出巨大潜力。然而,现有研究在方法学和报告质量上存在显著差异,例如仅40%的研究完整描述了查询策略,这影响了研究结果的可信度。为此,国际多学科团队开发了CHAT报告指南,通过标准化框架提升CHA研究的透明度。
CHAT的制定遵循EQUATOR网络标准,经历三阶段:
系统评价:筛选7752篇文献,识别137项CHA研究,提炼120项候选报告条目;
德尔菲共识:531名国际顾问委员通过两轮异步投票,新增28项条目;
专家小组会议:48名跨领域专家(含临床医生、AI研究员、患者代表)经12小时同步讨论,最终确定12项核心条目。
值得注意的是,为适应AI技术的快速迭代,指南将适用范围从LLM扩展至所有生成式AI,并设立"动态更新机制",每半年评估技术进展对指南的影响。
CHAT清单涵盖六大模块:
模型标识(条目3-4):要求明确AI模型版本、开源状态及调优细节(如是否基于基础模型或经过微调fine-tuning);
提示工程(条目5):需描述提示词开发流程、参与者背景(如是否包含患者参与),并公开原始提示;
查询策略(条目6):强制报告查询时间/地点、会话分离情况,以及聊天机器人原始输出;
伦理规范(条目12):特别强调患者数据隐私保护措施(如去标识化处理)和版权数据使用许可。
配套的方法学流程图直观展示了从模型选择到结果评估的全流程,帮助研究者规避"黑箱操作"风险。
指南针对四大关键问题提出解决方案:
版权争议:通过要求公开训练数据来源(条目12e)和版权许可状态(条目12cii),应对生成式AI的"合理使用"争议;
偏见控制:强制报告模型性能评估中的基准真相(ground truth)定义(条目7a),减少种族、性别等潜在偏见;
患者安全:设置有害响应评估条目(条目10c),要求识别误导性医疗建议;
动态更新:设立14人"常设专家小组",采用90%高阈值更新标准,确保指南持续适配AI技术演进。
CHAT已获《JAMA Network Open》等六本期刊同步发表,其创新性体现在:
多利益方参与:患者代表全程参与条目制定,确保建议贴近实际需求;
活体指南机制:突破传统报告指南静态模式,建立技术响应式更新路径;
跨学科协同:整合临床医学、数据科学、伦理法学等多维度视角。
未来,随着CHAT的推广应用,结合验证性研究(如标准化性能指标开发),或将加速生成式AI在结肠癌筛查等具体场景中的临床转化,最终实现"人类监督下的AI辅助医疗"生态构建。
生物通微信公众号
知名企业招聘