
-
生物通官微
陪你抓住生命科技
跳动的脉搏
护理学生人工智能态度与伦理决策偏见的关联性研究及其教育启示
【字体: 大 中 小 】 时间:2025年06月19日 来源:Nurse Education in Practice 3.3
编辑推荐:
本研究针对AI技术融入护理教育引发的伦理决策挑战,通过横断面调查265名土耳其护理学生,采用AI态度量表(GAAIS)和伦理决策偏见量表(EDBS)发现:尽管学生普遍对AI持积极态度(3.38±0.47),但36.2%存在信任危机,且伦理决策偏见水平(2.48±0.41)与AI使用频率负相关。研究为护理课程融入AI伦理教育提供了实证依据。
随着人工智能(AI)技术成为医疗数字化转型的核心驱动力,护理教育正面临前所未有的变革。AI驱动的临床决策支持系统(Clinical Decision Support Systems, CDSS)和模拟训练技术,正在重塑护理学生处理复杂临床场景的能力。然而,这种技术赋能背后潜藏着伦理困境——当护理学生过度依赖AI建议时,可能产生自动化偏见(Automation Bias),即盲目接受算法输出而忽视独立判断。这种现象在涉及患者安全与伦理责任的护理实践中尤为危险。
土耳其两所大学的研究团队针对这一矛盾展开调查。通过横断面研究设计,他们发现一个值得警惕的现象:尽管84.2%的女性护理学生(平均年龄20.45±1.67岁)每天使用AI工具1-3小时,且总体态度积极(GAAIS评分3.38±0.47),但超过三分之一(36.2%)的学生对AI解决方案持怀疑态度。更关键的是,频繁接触伦理决策的学生(偏见得分2.30±0.32)比少接触者(2.50±0.44)表现出更低的认知偏见水平,这种差异具有统计学意义(p<0.05)。研究结果揭示了AI信任度与伦理决策质量之间的微妙平衡,相关成果发表在《Nurse Education in Practice》期刊。
研究方法上,团队采用分层抽样选取265名参与者,通过在线问卷收集数据。核心测量工具包括:人口统计学表格、AI态度量表(General Artificial Intelligence Attitude Scale, GAAIS)和伦理决策偏见量表(Ethical Decision-Making Bias Scale, EDBS)。数据分析采用描述性统计和相关性检验,严格遵循STROBE报告规范。
【Results】部分显示:
【DISCUSSION】指出:当前护理教育存在"技术-伦理"能力失衡。虽然AI提升了操作效率,但学生缺乏应对算法局限性的批判性思维(Critical Thinking)。研究建议课程改革应包含:
这项研究的创新性在于首次量化了AI态度与伦理决策偏见的关联,为"数字原生代"护理人才培养提供了重要参考。其核心启示在于:医疗AI的应用不能止步于技能培训,必须同步构建"伦理免疫力",这将是未来护理教育的关键竞争力。研究同时指出局限性,如样本局限于土耳其两所院校,且存在自我报告偏差(Self-reporting Bias)的风险。未来研究可扩大跨文化比较,并采用实验法验证教育干预效果。
生物通微信公众号
知名企业招聘