
-
生物通官微
陪你抓住生命科技
跳动的脉搏
在线与ChatGPT生成的脑肿瘤预后教育材料可读性评估:现状与改进路径
【字体: 大 中 小 】 时间:2025年06月22日 来源:Journal of Clinical Neuroscience 1.9
编辑推荐:
【编辑推荐】研究团队针对在线医疗文献和ChatGPT生成的脑肿瘤预后材料可读性不达标问题,通过横断面研究分析117个网站和45条AI回答,发现所有材料均未达到AMA(6年级)或NIH(8年级)标准,且AI内容更晦涩(93.3%需研究生学历),凸显患者教育信息鸿沟,呼吁优化AI生成与专业审核机制。
在数字医疗时代,患者越来越依赖网络获取健康信息,尤其是面对脑肿瘤等复杂疾病时。然而,一个严峻的问题浮出水面:这些信息的可读性是否真的能满足普通患者的需求?以最常见的原发性脑肿瘤——胶质母细胞瘤(Glioblastoma)、脑膜瘤(Meningioma)和垂体腺瘤(Pituitary Adenoma)为例,其治疗涉及神经外科、放射肿瘤学等多学科协作,但患者往往因专科就诊延迟而转向网络寻求预后信息。更值得关注的是,随着ChatGPT等人工智能工具的普及,AI生成的医疗内容是否更具可读性?这直接关系到患者能否理解关键信息并做出明智决策。
为此,研究人员开展了一项横断面研究,系统评估了在线资源和ChatGPT生成材料的可读性差异。通过Google Chrome检索2024年11月的数据,纳入117个针对三种脑肿瘤预后的英文患者教育网站,并按肿瘤类型、机构属性(大学附属vs非附属)和作者资质(医学专业人士审核vs非审核)分类。同时,用ChatGPT 4.0生成45条标准化回答。研究采用Flesch Reading Ease(FRE)、Flesch-Kincaid Grade Level(FKGL)、Gunning Fog Index(GFI)、Coleman-Liau Index(CLI)和SMOG Index五项经典指标评估可读性。
关键方法包括:1)模拟患者搜索行为获取前100条结果;2)按肿瘤类型分层抽样;3)用标准化问题引导ChatGPT生成内容;4)采用Mann-Whitney U检验和t检验比较组间差异。
描述性可读性分析显示,所有网站和AI回答均未达到美国医学会(AMA)建议的6年级或国立卫生研究院(NIH)建议的8年级阅读水平。具体而言,50.4%网站需要9-12年级阅读能力,47.9%需大学水平,1.7%达研究生水平。ChatGPT表现更差——93.3%回答需研究生学历理解。
分组比较发现:医学专业人士审核的网站FRE显著更高(p=0.03)、CLI更低(p=0.009),说明专业监督能提升可读性;而ChatGPT在所有指标上均显著劣于网站(p<0.001),尤其是GFI和SMOG指数显示其句子复杂度和专业词汇使用过度。
讨论部分指出,这一现象可能加剧健康不平等——低文化程度患者更难获取关键预后信息。研究首次揭示AI生成医疗内容的"可读性陷阱":尽管ChatGPT能组织专业内容,但未考虑大众理解阈值。值得注意的是,大学附属机构与非附属网站的可读性无差异(p>0.05),提示机构权威性不保证信息通俗性。
该研究具有双重意义:一方面为在线健康信息的优化提供实证依据,强调医学审核的重要性;另一方面为AI医疗应用敲响警钟——需将可读性作为核心开发指标。作者建议建立跨学科团队,将健康传播专家纳入AI训练过程,同时制定神经肿瘤学信息的标准化可读性指南。这些发现对提升医患沟通效率、减少健康信息不对等具有重要实践价值,尤其为改善脑肿瘤这一高负担疾病的患者教育模式指明方向。
生物通微信公众号
知名企业招聘