社交媒体平台中脑血管神经外科问题应答质量对比研究:ChatGPT 3.5与专科医生的准确性、共情力与可读性分析

【字体: 时间:2025年05月29日 来源:Clinical Neurology and Neurosurgery 1.8

编辑推荐:

  【编辑推荐】本研究针对社交媒体上脑血管神经外科问题的医疗咨询需求,对比ChatGPT 3.5与专科医生回答的准确性、完整性、共情力及可读性。结果显示,AI在信息完整性(中位数3 vs 2)和共情力(4 vs 2)上显著优于医生(p<0.001),但可读性较低(p<0.001)。该研究为AI辅助医疗咨询提供了实证依据,发表于《Clinical Neurology and Neurosurgery》。

  

脑血管疾病是全球第二大死亡原因,动脉瘤、动静脉畸形(AVM)等病变需长期监测,患者常通过社交媒体寻求医疗建议。然而,医生回复存在信息碎片化、共情不足等问题,而新兴的AI聊天机器人(如ChatGPT)的应答能力尚未系统评估。为此,美国研究团队在《Clinical Neurology and Neurosurgery》发表研究,首次对比ChatGPT 3.5与专科医生在Reddit平台50个脑血管神经外科问题中的表现。

研究采用多维度评估框架:从Reddit“r/AskDocs”子论坛提取50个典型问题,输入ChatGPT生成应答。四名评审者对医生和AI回答进行盲法评分(Likert量表),评估准确性(基于神经外科指南)、完整性、共情力;采用Flesch Reading Ease等6项指标量化可读性。

结果部分显示:

  1. 准确性:AI与医生无显著差异(中位数均为4,p=0.752),均符合专业指南。
  2. 完整性:AI回答更全面(3 vs 2,p<0.001),如对动脉瘤破裂风险的描述包含更多预警症状。
  3. 共情力:AI显著优于医生(4 vs 2,p<0.001),常用“我理解您的担忧”等情感化表达。
  4. 可读性:医生回答更易读(p<0.001),如Flesch-Kincaid Grade Level显示医生文本适合8年级阅读水平,而AI需12年级。

讨论指出,AI的高共情力可能源于算法设计的对话优化,但其复杂句式(如SMOG指数较高)可能阻碍低文化人群理解。研究建议将AI应答作为医生草稿的辅助工具,平衡专业性与通俗性。

该研究为AI在非临床场景的应用提供重要证据,尤其对需长期随访的脑血管疾病患者,AI可缓解医生负担并提升咨询体验。未来需优化AI的可读性算法,并解决信息来源透明性问题。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号