ChatGPT能否为患者提供与骨科相关问题的解答?ChatGPT与医疗支持人员的对比

《Patient Education and Counseling》:Can ChatGPT provide responses to patients for orthopaedic-related questions? A comparison between ChatGPT and medical support staff

【字体: 时间:2025年09月19日 来源:Patient Education and Counseling 3.1

编辑推荐:

  患者参与平台中,大语言模型ChatGPT在回答膝关节置换术后患者咨询时质量与人工支持相当,但更具同理心且能被识别,未发现高风险错误,提示AI可辅助减轻医护人员负担

  随着数字医疗技术的快速发展,患者与医疗专业人员之间的互动方式也在不断变化。特别是在疫情期间,远程医疗服务和数字平台的使用显著增加,这使得患者可以通过聊天功能等途径与医护人员进行更频繁的沟通。然而,这种沟通方式虽然提高了患者的参与度,也给医疗专业人员带来了额外的工作负担,可能影响其工作效率和心理健康,甚至引发职业倦怠。因此,如何在不降低服务质量的前提下,减轻医疗人员的工作压力,成为当前医疗领域关注的重要课题。

自然语言处理(Natural Language Processing, NLP)技术的出现为这一问题提供了新的解决方案。NLP作为人工智能(Artificial Intelligence, AI)的一个重要分支,能够使机器理解和生成人类语言,从而在医疗场景中发挥重要作用。近年来,大型语言模型(Large Language Models, LLMs)的发展尤为引人注目。这类模型基于海量文本数据进行训练,能够生成高质量、自然流畅的文本回复,展现出强大的语言理解和生成能力。其中,ChatGPT 是一个广泛应用的LLMs,它不仅能够提供准确的信息,还能在一定程度上模拟人类的交流方式,使对话更加自然和富有情感。

在医疗领域,LLMs的应用潜力巨大,尤其是在处理患者咨询方面。例如,ChatGPT在某些医学问题上的回答被认为比谷歌更为准确和全面,这表明其在医疗信息处理方面具有一定的优势。然而,LLMs在医疗场景中的使用仍面临诸多挑战。一方面,这些模型可能产生不准确或误导性的信息,即所谓的“幻觉”现象,这可能对患者的健康产生不良影响。另一方面,尽管LLMs能够提供信息,但它们是否能够真正理解患者的情感需求,以及是否能够提供具有同理心的回复,仍然是一个值得探讨的问题。

为了评估LLMs在医疗场景中的表现,一项研究对患者在下肢关节置换术后提出的问题进行了分析。研究中选取了111个由支持人员通过一款名为“患者旅程应用”(Patient Journey App, PJA)的平台回答的患者问题,并将这些问题输入到ChatGPT 3.5中,生成相应的回复。随后,由两位盲评的医疗专业人员——一名骨科外科医生和一名麻醉师——对ChatGPT的回复和支持人员的回复进行了评估,分别从质量、同理心以及潜在的不良事件风险等方面进行打分。此外,研究还邀请了29名患者组成患者小组,对回复的同理心、偏好以及来源进行评价。

研究结果显示,ChatGPT的回复在质量上与支持人员的回复没有显著差异(p=0.075),但在同理心方面表现更为突出(p<0.001)。这意味着,尽管ChatGPT在提供准确信息方面与支持人员相当,但其在情感交流和理解患者需求方面具有明显优势。同时,研究发现,ChatGPT的回复在潜在的错误治疗建议方面也没有显著风险(p=0.377),这表明其在医疗信息处理方面具备一定的可靠性。医疗专业人员能够准确识别ChatGPT的回复,其中一位评估者在84-90%的情况下更倾向于选择ChatGPT的回复。然而,患者小组对ChatGPT的回复并没有表现出明显的偏好(p=0.086),尽管他们认为ChatGPT的回复更具同理心(p<0.001)。值得注意的是,有3个ChatGPT的回复被认定为高风险错误,这提示我们在使用LLMs处理医疗信息时,仍需谨慎对待其准确性。

这一研究的结果具有重要的现实意义。首先,ChatGPT能够提供高质量的回复,这意味着它可以在一定程度上替代支持人员回答患者的常见问题,从而减轻他们的工作负担。其次,ChatGPT在同理心方面的表现优于支持人员,这表明它能够更好地满足患者的情感需求,提高患者的满意度。然而,研究也指出了一些潜在的风险。尽管ChatGPT在大多数情况下能够提供正确的信息,但在极少数情况下仍可能出现高风险的错误。因此,在实际应用中,我们需要对这些回复进行严格的审核,以确保其安全性和可靠性。

此外,研究还强调了LLMs在医疗领域中的应用前景。随着技术的不断进步,LLMs的能力将进一步提升,未来可能会在更多医疗场景中发挥作用。例如,它们可以用于自动化处理患者的咨询,提高医疗资源的利用效率,减少医疗人员的重复性工作。同时,LLMs还可以用于辅助医疗人员进行决策,提供更加全面和个性化的建议。然而,这些应用都需要在确保数据安全和隐私的前提下进行,同时还需要建立相应的伦理和法律框架,以规范LLMs在医疗领域的使用。

从患者的角度来看,LLMs的应用可以改善他们的就医体验。通过聊天功能,患者可以随时获得所需的信息,而不必等待医疗人员的回复。这不仅提高了沟通的效率,也增强了患者的自主性和参与感。然而,患者对LLMs的接受程度和信任度仍然是一个关键因素。在研究中,患者虽然认为ChatGPT的回复更具同理心,但并没有表现出明显的偏好。这可能是因为他们更倾向于与真人交流,或者对LLMs的可靠性仍存疑。因此,在推广LLMs应用的过程中,我们需要通过教育和宣传,提高患者对这些技术的信任度,同时也要确保它们在实际使用中能够提供高质量和安全的服务。

从医疗专业人员的角度来看,LLMs的应用可以显著减轻他们的工作负担。在当前的医疗环境中,医疗人员不仅要处理患者的直接咨询,还要应对大量的间接沟通需求。例如,患者可能会通过聊天平台询问手术日期、检查结果等信息,这些通常需要支持人员进行回答。如果LLMs能够有效地处理这些问题,医疗人员就可以将更多的时间和精力投入到直接的临床工作中,从而提高整体的医疗服务质量。然而,医疗人员在使用LLMs时也需要保持警惕,确保其提供的信息不会误导患者或影响他们的治疗决策。

在实际应用中,LLMs可以作为医疗专业人员的辅助工具,而不是完全取代他们。例如,在回答一些常见问题时,LLMs可以提供快速、准确的回复,从而提高工作效率。而在涉及复杂或敏感问题时,医疗专业人员仍然需要亲自参与,以确保信息的准确性和适当性。此外,医疗专业人员还需要对LLMs的回复进行审核,确保其符合医疗规范和伦理标准。这种“人机协作”的模式可能成为未来医疗沟通的重要趋势。

综上所述,这项研究为LLMs在医疗场景中的应用提供了重要的参考。尽管ChatGPT在某些方面表现优异,但其在医疗领域的使用仍需进一步优化和规范。未来的研究应该关注如何提高LLMs的准确性,减少潜在的错误,同时也要探索如何在实际应用中更好地整合这些技术,以实现医疗效率与患者体验的双重提升。此外,还需要建立相应的培训机制,使医疗专业人员能够有效地利用LLMs,提高他们的工作效率,同时确保患者能够获得高质量和安全的医疗服务。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号