编辑推荐:
本综述聚焦生成式人工智能(GenAI)及大型语言模型(LLMs)在医学教育中的应用,探讨其在提升教育效率与个性化学习的同时,带来的学习过程、评估真实性和学术诚信等问题,分析治理与监管措施,为相关领域提供参考。
生成式人工智能(GenAI)和大型语言模型(LLMs)在医学教育领域引发广泛关注。其作为深度学习模型,能基于训练数据生成高质量内容,LLMs 作为基础模型的一类,虽无法真正理解文本数据,却可生成类似人类的自然语言。二者为医学及健康科学的学习者和教育者带来前所未有的教学机遇,在心脏电生理学教育、数字病理学等领域已展现多模态应用价值。
但 AI 本质上是复杂的社会、文化和物质产物,其意义和地位由不同利益相关者共同构建。目前,关于这些模型及其应用服务的开发、部署和商业化信息匮乏,教育者、专业机构和政府对其潜在监管需求的担忧与日俱增,现有监管框架和立法往往滞后于技术发展。
从教学角度看,学习过程是将 GenAI 纳入教学方法时需重点考量的因素。可教育性是学习者区别于机器的关键能力,GenAI 虽可能成为医学教育的有用辅助工具,但难以取代构建同理心和情境意识所需的社会互动。当前需在教育中纳入 GenAI 相关内容,培养学生批判性评估 GenAI 的技能、重新思考评估方法并研究人机交互。
临床推理方面,GenAI 的 “黑箱” 机制可能对医学教育中临床推理和决策技能的教学产生问题,其决策过程的解释未必准确或可理解,可能影响学生对有价值信息的辨别能力,存在将患者体验简化为线性问题解决的风险,还可能模糊或夸大不确定性,影响学习者对自身及技术反应的理解。
评估环节,LLMs 虽能为学习者合成和个性化信息,但也引发对其颠覆评估过程的担忧,存在学术不端风险,还可能导致学习者过度依赖技术,影响批判性思维等技能的培养。目前 LLMs 已能通过许多本科和研究生专业培训项目的执照考试,医学教育面临确保信息准确性和时效性、减少偏见、维护学术诚信等挑战,需重新设计课程和评估方式,培养适应未来医疗环境的技能。
GenAI 在医学教育中对学习者和教育者均有重要作用。对学习者,其可提供个性化学习系统、创建互动模拟、辅助鉴别诊断等;对教育者,可辅助课程开发、减少行政负担、生成评估项目等。但同时也带来评估真实性、数据安全、隐私保护等挑战,需重新定义评估中的 “真实性” 和 “原创性”,提升未来医生的数字素养。
信任度是 GenAI 在医学教育和临床实践中应用的关键问题。患者虽对其参与医疗持一定开放态度,但更希望最终方案由人类批准和执行。GenAI 因无法解释决策原理、存在固有偏见等原因难以获得充分信任,其作为辅助工具的角色更易被接受。医学教育需适应这一趋势,培养未来医生在 GenAI 辅助环境中的工作能力,避免患者被简化为数据点,重视患者个体情境。
监管方面,GenAI 的快速发展和不确定性使准确预测其机遇与风险变得困难。医学教育领域的监管涉及认证和验证,以确保质量和能力标准。维护学术诚信是重点,检测 LLMs 的不当使用具有挑战性,程序化评估可能更具抗性。监管需考虑算法偏见、过度依赖、隐私等具体问题,涉及透明度、数据保护、责任等因素。
临床实践中使用 GenAI 时,医疗诊断的责任归属尚不明确,需在伦理和法律层面重新审视医疗 malpractice 等类别。现有法规多关注患者安全,但未必能保证安全,需制定法律框架保护患者免受不良 GenAI 的影响,患者有权了解 GenAI 的局限性并选择是否使用。
监管可分为微观、中观和宏观层面。微观层面涉及学习者和教育者的自我监管,需制定策略应对透明度、数据隐私等问题;中观层面涉及机构和认证机构,需将 GenAI 的伦理使用纳入课程,制定相关政策和指南;宏观层面涉及国家和国际组织,需采取全球协作和风险为本的方法,但实际进展滞后,现有国际协议多为非约束性建议。
总体而言,GenAI 在医学教育和临床应用中的作用与治理、监管问题紧密相连。尽管其在效率和个性化方面具有潜力,但因信任度和对医患关系的未知影响,尚未被广泛接受。其使用需不断由人类调整和更新,以确保输出的准确性和实用性。医学教育需在学习过程、评估真实性和学术诚信的背景下考量其影响,通过不同层面的合理监管,引导其安全、公平使用,实现人类与 GenAI 的平衡协作,促进学习进步,避免过度监管阻碍创新。