乌克兰医学生人工智能使用与学术不端行为的横断面研究:现状、认知与政策启示

《BMC Medical Education》:Academic misconduct and artificial intelligence use by medical students, interns and PhD students in Ukraine: a cross-sectional study

【字体: 时间:2025年10月28日 来源:BMC Medical Education 3.2

编辑推荐:

  本研究针对乌克兰医学教育中AI使用规范缺失的现状,通过横断面调查揭示了医学生群体普遍使用ChatGPT等工具(84%)却对学术边界认知模糊(36%认为属学术不端)的矛盾现象。研究发现51%参与者曾有过作弊行为,14%承认用AI写论文,结果凸显了制定国家级AI学术使用指南的紧迫性,为医学教育伦理规范建设提供了关键证据。

  
当ChatGPT在2023年2月正式向乌克兰用户开放时,这个人工智能工具立即在医学教育领域掀起了波澜。一边是它能快速整理海量医学知识的强大能力,另一边则是关于“这算不算作弊”的伦理争议。在波格莫列茨国立医科大学,教师们发现学生提交的论文突然变得文笔流畅、引经据典,但仔细推敲又缺乏医学实践特有的细节洞察。这种新型“学术助手”究竟应该划入学习工具还是作弊工具?乌克兰教育部发布的《人工智能白皮书》只有模糊建议,缺乏具体禁令,这让医学教育工作者陷入了监管困境。
医学教育不同于其他学科,未来的医生若在学习阶段就依赖AI代劳思考,可能导致临床决策能力退化,最终危及患者生命。然而全球研究显示,AI在医学教育中确实能提升学习效率——比如帮助医学生快速梳理疾病机制、生成鉴别诊断思路。这种两难境地促使莱莎·莱马尔(Lesya Lymar)团队开展了一项开创性研究,旨在揭示乌克兰医学生、实习医生和博士研究生群体中AI使用的真实图景及其与学术诚信的复杂关系。
研究团队于2024年10-12月采用横断面设计,通过谷歌表格对波格莫列茨国立医科大学的5000名潜在参与者进行抽样调查。最终纳入分析的244份问卷涵盖183名医学生(75%)、6名实习医生(2%)和55名博士研究生(23%),69%为女性,78%年龄在25岁以下。研究使用自主设计的17项问卷,经过专家评审和认知预测试确保内容效度,采用定性描述法分析开放式问题,所有数据使用MedCalc软件进行描述性统计分析。
AI使用普遍性与模式
结果显示,84%的参与者承认将AI用于学术目的,ChatGPT以绝对优势成为最常用工具(72%)。多数人通过朋友推荐(41%)接触AI,使用频率集中在每周一次(30%)或多次(28%)。值得注意的是,70%的参与者将AI主要用于信息检索,仅14%承认用于论文写作,9%用于提交预写作业。当被问及“若AI消失是否影响学习”时,54%认为没有影响或影响轻微,这暗示AI更多被视为便利工具而非必需品。
学术不端行为的隐性存在
尽管直接承认用AI作弊的比例不高,但历史作弊行为调查结果触目惊心:51%的参与者承认曾抄袭同学考试答案,22%下载网络论文提交,13%购买过论文服务。这种对传统作弊方式的高接受度,与他们对AI作弊的模糊认知形成呼应——仅36%明确认为AI使用属于学术不端,26%认为可接受,38%表示无法判断。这种认知混乱在博士研究生群体中尤为明显,他们使用AI的比例(89%)最高,但对伦理界限的困惑也最突出。
优势与风险的双面认知
参与者用生动语言描述了AI的双刃剑特性。在95%受访者填写的优势中,“时间效率”出现频率最高(超50%),典型描述如“十分钟就能完成原本两小时的文献梳理”(P112)。其次是“简化复杂信息”能力,有参与者指出“AI能把晦涩的神经递质通路说得像菜谱一样易懂”(P45)。然而85%的受访者也列举了严重担忧:60%以上提到“错误与不准确”问题,有人抱怨“AI编造根本不存在的参考文献”(P203);更深刻的忧虑关于“批判性思维退化”,多名参与者警告“过度依赖会让医学诊断变成猜谜游戏”(P167)。
政策缺位的现实危机
研究暴露了乌克兰监管体系的空白。相比英美等国已出台的AI教育指南,乌克兰仅有的《白皮书》缺乏约束力。这种缺失在冲突环境中更为致命——当学生因战乱被迫中断实验课程时,AI可能成为弥补学习缺口的唯一途径,但也最易滑向学术欺诈。参与者表达了对明确规则的需求:“我们需要知道什么时候用AI是学习,什么时候是欺骗”(P98)。
讨论与启示
这项研究首次描绘了冲突地区医学教育中AI使用的伦理地貌。高使用率与低监管意识的矛盾提示,单纯禁止AI已不现实,关键在于建立“人类主导、AI辅助”的教育范式。研究建议乌克兰参考联合国教科文组织(UNESCO)的生成式AI教育指南,从三方面着手:一是将AI伦理纳入医学课程,教授合理使用边界;二是改革评估方式,增加口头答辩、过程考核等AI难以替代的形式;三是建立校级AI使用声明制度,要求学生公开AI辅助程度。
该研究的局限性包括4.9%的低回应率和单一机构样本,且实习医生代表不足可能影响结果推广性。但正如作者强调,这项研究为后续政策制定提供了基准数据。随着欧盟《AI法案》将教育应用列为高风险领域,乌克兰医学教育体系亟需建立既能利用AI优势又能防范伦理风险的智慧方案。未来研究应追踪AI长期使用对临床能力的影响,并开发能识别AI代笔的检测算法。
这项发表于《BMC Medical Education》的研究最终指出,AI不会消失,但学术诚信底线更不能退让。在乌克兰这个经历战火仍坚持医学教育的国家,构建负责任的AI使用文化,不仅关乎教育公平,更关系到未来医疗队伍的专业素养。当ChatGPT能写出完美论文却写不出体温计时的人性温度,医学教育者需要教会学生如何让AI成为听诊器般的工具,而非替代思考的“电子鸦片”。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号