编辑推荐:
为探究大语言模型(LLMs)在医疗领域应用的利弊,研究人员开展了关于 LLMs 与患者能动性及全球医疗公平编码关系的研究。结果发现 LLMs 有利有弊,其意义在于为推动医疗公平变革提供参考,助力构建更合理医疗体系。
在当今数字化浪潮席卷之下,医疗领域也迎来了前所未有的变革契机。以往,患者在医疗决策中往往处于相对被动的地位,对病情的了解大多依赖医生的讲解,在选择治疗方案时,因专业知识的欠缺,很难充分表达自己的意愿并参与到决策过程中。同时,全球医疗资源分配不均的问题由来已久,不同地区、不同社会经济背景的人群在获取医疗服务的质量和可及性上存在巨大差距。在这样的大背景下,大语言模型(Large Language Models,LLMs)的出现,宛如一颗投入平静湖面的石子,激起层层涟漪,为改善医疗现状带来了新的希望,也引发了诸多思考。研究人员敏锐地察觉到 LLMs 在医疗领域潜在的巨大影响力,为了深入剖析其在推动全球医疗公平性进程中的作用,来自美国哈佛大学医学院附属麻省总医院心血管研究中心等机构的 Antonis A. Armoundas 和 Joseph Loscalzo 展开了相关研究,研究成果发表在《npj Digital Medicine》上。
该研究主要围绕 LLMs 在医疗领域的应用展开,并未涉及特定的试剂、样本队列培养以及质粒构建等复杂操作,研究重点聚焦于对 LLMs 在医疗应用中的多方面分析。研究人员通过对大量已有的研究成果、实际应用案例以及相关理论进行综合分析,从不同角度探讨 LLMs 在促进患者能动性和全球医疗公平性编码方面的作用。
大语言模型在促进患者能动性方面的益处
- 提升医疗服务可及性:LLMs 为患者打开了一扇通往全新医疗世界的大门,极大地拓展了患者获取医疗服务的途径。它能够简化医学病症的描述,辅助撰写医疗文档,创建培训项目和流程,还能优化研究过程。通过这些功能,LLMs 有望在诊断、医学写作、医学教育以及项目管理等多个方面推动医疗行业的变革,让患者享受到更便捷、高效的医疗服务。
- 推动精准医疗发展:LLMs 具备的文本转语音等功能,为残障患者获取医疗服务提供了便利。同时,它还能准确地将医疗信息翻译成多种语言,满足全球不同人群的特殊需求。此外,LLMs 可以分析大量患者数据,如基因9,10、生活方式11、电子健康记录(Electronic Health Record,EHR)12,13以及药物治疗14,15等信息,从而识别潜在风险,提出预防策略,并为慢性疾病或罕见病患者制定个性化的治疗方案,助力精准医疗的发展。
- 促进患者参与并改善治疗效果:提高患者参与度对于改善治疗效果至关重要。LLMs 在这方面具有强大的潜力,它可以通过多种方式促进患者参与医疗过程。例如,加强个性化的患者教育,让患者更容易理解医疗信息;提供临床决策支持,帮助患者更好地与医生沟通;协助患者理解知情同意书;提供个性化的健康计划和指导;从患者或医生的记录中提取关键信息;支持患者自我管理和共同决策等。通过这些举措,LLMs 有助于打造以患者为中心、更积极主动且公平的医疗体验。
- 在共同决策中提升患者能动性:患者能动性指的是患者在医疗过程中采取行动、做出贡献、产生影响并进行决策的能力。共同决策则是患者与医疗团队基于患者的知情偏好和临床证据共同做出决策的过程。然而,目前在医疗实践中,存在着对健康素养和数字素养的混淆,许多临床医生认为提高患者健康素养是患者自身的责任,而非医生需要去适应患者不同的健康素养水平和需求。LLMs 的出现改变了这一局面,患者可以基于自身的价值观和偏好、对病情的理解以及实际生活中的限制,与医生进行更有效的沟通和决策。随着患者健康素养的提高,LLMs 需要在最佳临床护理方案和患者的实际需求之间寻求平衡,这将有助于加强患者与医生之间的沟通和合作。
- 在个体决策中提升患者能动性:尽管提高健康素养是医疗领域的重要目标,但在讨论治疗选择和决策时,患者对风险和益处的理解往往存在不足。随着患者健康素养的提升,他们对自身疾病和治疗方案的理解也会加深,即便无法立即获得有效的治疗,也能更好地进行自我护理。在网络覆盖的偏远地区,LLMs 的健康教育功能可以发挥重要作用,帮助当地居民更好地管理健康。
大语言模型在促进患者能动性方面的风险
- 谨慎使用大语言模型:虽然 LLMs 在辅助诊断和改善医患沟通方面发挥了一定作用,但仍存在诸多挑战。例如,其在上下文理解、风险评估和依赖程度方面存在局限性。此外,LLMs 生成的医学知识需要经过仔细验证,并且在将这些知识融入传统医疗实践时,还存在伦理方面的担忧。因此,所有利益相关者都不应过度依赖 LLMs 在医疗领域的潜在效用,必须明确其潜在的局限性和风险。
- 准确性、可及性和完整性问题:准确且易于获取的医疗信息是实现以患者为中心的医疗护理的关键。然而,由于 LLMs 的算法依赖于对大量文本的分析来生成输出,其结果可能包含偏差性观点和不准确信息。例如,当数据来源中某些人群的代表性不足时,LLMs 可能会得出有偏差的结论。更令人担忧的是所谓的 “LLM 幻觉” 现象,即 LLMs 可能会提供不准确的诊断或不恰当的治疗建议,这对患者可能造成潜在危害。为了避免这些问题,LLMs 需要像其他人工智能工具一样,接受严格的上市前评估和上市后监测,并且在开发、评估和部署过程中纳入医学专业人员的参与。
- 隐私和安全问题:与传统的基于人工智能的医疗技术类似,LLMs 的开发者和利益相关者必须重视患者隐私和安全问题。LLMs 在与患者和医疗服务提供者交互的过程中,会收集和存储大量敏感的患者信息,如病史、检查结果、诊断等。这些信息面临着未经授权访问和数据安全泄露的风险,即使数据经过去标识化处理,仍存在患者被重新识别的可能性。因此,LLMs 开发者需要尽可能透明地向患者和行业披露算法的功能以及潜在风险。
- 偏差和问责问题:临床医生在使用人工智能算法时,能够判断其是否适用于特定患者的具体情况。然而,患者在使用 LLMs 进行医疗决策时,可能会受到训练数据中的偏差影响。例如,OpenAI 在其使用条款中明确表示不对 GPT 生成的内容负责,这使得在出现不准确或不恰当的输出并导致患者受到伤害时,责任归属变得模糊不清。因此,患者在参考 LLMs 提供的医疗建议时,需要谨慎评估训练数据的多样性,并对这些建议保持适当的警惕。
- 临床医生的责任:LLMs 为患者带来了诸多益处,但也需要临床医生进行严格监督。临床医生需要监测异常情况,与患者沟通,并根据新信息更新治疗策略。然而,将 LLMs 技术融入临床实践对于一些基于传统架构且缺乏互操作性和适应性的医疗系统,以及资源有限的小型医疗机构来说,是一项巨大的挑战。
- 大语言模型的性能波动:研究表明,ChatGPT 在回答一般医学知识问题时表现优于谷歌搜索,但在提供医疗相关建议时得分较低。此外,虽然谷歌的一款针对诊断推理优化的 LLM 在协助临床医生进行差异诊断方面表现出色,但随着 LLMs 规模的不断扩大,其在处理低难度问题时的可靠性反而降低,并且更容易产生看似合理但实际错误的回答,还可能出现 “幻觉” 现象。研究人员建议通过使用医疗领域的数据集训练算法或对 LLMs 进行约束来克服这些局限性。
研究表明,LLMs 在医疗领域的应用为推动全球医疗公平性带来了新的机遇。它可以增强患者在医患关系中的能动性,使患者能够更加自主地做出医疗决策,这在以往是难以实现的。同时,LLMs 有助于将医疗重点转向健康预防,让个体能够更积极地管理自身健康,减少对昂贵的被动医疗干预的依赖。此外,它还能扩大个性化健康支持的覆盖范围,为不同地区、不同社会经济地位的人群提供持续、经济且个性化的健康指导和监测服务。然而,LLMs 的应用也并非一帆风顺,其存在的风险如信息准确性、隐私安全、偏差和问责等问题,可能会危及患者的福祉。
这一研究成果意义重大,它为医疗领域如何合理应用 LLMs 提供了全面且深入的参考。一方面,提醒医疗从业者、患者以及相关利益者在享受 LLMs 带来便利的同时,要充分认识并警惕其潜在风险;另一方面,为后续进一步研究如何优化 LLMs 在医疗领域的应用指明了方向,推动医疗系统和理念朝着更加注重患者参与和个性化医疗的方向发展。在未来的医疗发展中,只有充分发挥 LLMs 的优势,同时有效应对其带来的挑战,才能真正实现利用这一技术推动全球医疗公平性的变革,让更多人受益于先进的医疗服务。