护理学生人工智能态度与伦理决策偏见的关联性研究及其教育启示

【字体: 时间:2025年06月19日 来源:Nurse Education in Practice 3.3

编辑推荐:

  本研究针对AI技术融入护理教育引发的伦理决策挑战,通过横断面调查265名土耳其护理学生,采用AI态度量表(GAAIS)和伦理决策偏见量表(EDBS)发现:尽管学生普遍对AI持积极态度(3.38±0.47),但36.2%存在信任危机,且伦理决策偏见水平(2.48±0.41)与AI使用频率负相关。研究为护理课程融入AI伦理教育提供了实证依据。

  

随着人工智能(AI)技术成为医疗数字化转型的核心驱动力,护理教育正面临前所未有的变革。AI驱动的临床决策支持系统(Clinical Decision Support Systems, CDSS)和模拟训练技术,正在重塑护理学生处理复杂临床场景的能力。然而,这种技术赋能背后潜藏着伦理困境——当护理学生过度依赖AI建议时,可能产生自动化偏见(Automation Bias),即盲目接受算法输出而忽视独立判断。这种现象在涉及患者安全与伦理责任的护理实践中尤为危险。

土耳其两所大学的研究团队针对这一矛盾展开调查。通过横断面研究设计,他们发现一个值得警惕的现象:尽管84.2%的女性护理学生(平均年龄20.45±1.67岁)每天使用AI工具1-3小时,且总体态度积极(GAAIS评分3.38±0.47),但超过三分之一(36.2%)的学生对AI解决方案持怀疑态度。更关键的是,频繁接触伦理决策的学生(偏见得分2.30±0.32)比少接触者(2.50±0.44)表现出更低的认知偏见水平,这种差异具有统计学意义(p<0.05)。研究结果揭示了AI信任度与伦理决策质量之间的微妙平衡,相关成果发表在《Nurse Education in Practice》期刊。

研究方法上,团队采用分层抽样选取265名参与者,通过在线问卷收集数据。核心测量工具包括:人口统计学表格、AI态度量表(General Artificial Intelligence Attitude Scale, GAAIS)和伦理决策偏见量表(Ethical Decision-Making Bias Scale, EDBS)。数据分析采用描述性统计和相关性检验,严格遵循STROBE报告规范。

【Results】部分显示:

  1. ChatGPT是使用最频繁的AI工具(52.9%),主要用于文献检索和学术内容准备;
  2. AI高信任组在解决伦理问题时表现更优,且工具使用效率更高;
  3. 信息获取障碍和AI不信任被确认为影响决策质量的关键因素。

【DISCUSSION】指出:当前护理教育存在"技术-伦理"能力失衡。虽然AI提升了操作效率,但学生缺乏应对算法局限性的批判性思维(Critical Thinking)。研究建议课程改革应包含:

  1. AI伦理模块设计;
  2. 基于案例的偏见识别训练;
  3. 人机协作决策模拟。

这项研究的创新性在于首次量化了AI态度与伦理决策偏见的关联,为"数字原生代"护理人才培养提供了重要参考。其核心启示在于:医疗AI的应用不能止步于技能培训,必须同步构建"伦理免疫力",这将是未来护理教育的关键竞争力。研究同时指出局限性,如样本局限于土耳其两所院校,且存在自我报告偏差(Self-reporting Bias)的风险。未来研究可扩大跨文化比较,并采用实验法验证教育干预效果。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号