多利益相关者视角下教育领域负责任人工智能的接受度研究:数据隐私、透明性与伦理部署的平衡

【字体: 时间:2025年07月09日 来源:npj Science of Learning 3.6

编辑推荐:

  本研究针对教育领域人工智能(AI)应用的接受度问题,通过情景实验法(vignette methodology)调查了1198名师生及家长对AI教育应用的接受度差异。研究发现AI的自主性(agency)显著降低使用意愿,而全局效用(GU)和信任(confidence)是关键中介变量,揭示了教育AI需在技术能力与人类监督间取得平衡。该研究为教育AI的伦理框架设计提供了实证依据,对实现AIED(Artificial Intelligence in Education)的负责任部署具有重要指导意义。

  

在ChatGPT等生成式预训练转换器(GPT)席卷全球的背景下,教育领域正面临人工智能(AI)带来的颠覆性变革。传统教学体系受到挑战的同时,AI教育应用(AIED)也引发诸多争议:学生用AI工具完成作业是否构成作弊?AI评分系统能否保证公平?当AI开始介入情感支持等敏感领域,数据隐私如何保障?这些争议背后,是教育工作者、学生和家长对AI技术缺乏系统性认知而产生的信任危机。

加拿大蒙特利高等商学院(HEC Montréal)的Alexander John Karran团队意识到,现有研究多聚焦AI作弊问题,却忽视了教育生态系统内不同利益相关者的差异化需求。为此,他们设计了一项开创性研究,通过四个典型教育场景(AI评分Correct-AI、答疑助手Answer-AI、个性化辅导Tutor-AI和情感支持Emotion-AI),系统考察了机构透明度(transparency)、算法解释性(explainability)、数据隐私(privacy)和系统自主性(agency)如何影响1198名师生及家长的接受度。这项发表在《npj Science of Learning》的研究,首次从多利益相关者视角揭示了教育AI接受的复杂机制。

研究团队采用情景实验法(vignette methodology)构建四组对照场景,通过在线平台收集数据。每个场景独立操纵四个关键变量(如Correct-AI场景中设置"教师是否验证AI评分"来调控agency水平),采用经过验证的量表测量全局效用(GU)、个体有用性(IU)、公正性(justice)、信任(confidence)、风险感知(risk)和使用意愿(ITU)等指标。通过PROCESS宏程序进行中介效应分析,揭示了不同群体接受AI教育的心理路径。

【学生群体:效用与公平的权衡】
在Correct-AI场景中,高度自主的AI评分系统(high agency)使学生感知的全局效用下降0.4261分(p=0.0011),公正性评分降低0.3768分(p=0.0261)。中介分析显示,agency通过GU(效应值-0.1449)和justice(效应值-0.0576)间接抑制使用意愿。而在Answer-AI场景,隐私保护显著提升GU评分0.2987分(p=0.0439),进而正向影响使用意愿(间接效应0.0944)。这表明学生更关注AI系统的结果公平性,对隐私的重视则体现在非学术支持场景。

【家长群体:信任危机】
父母仅在Correct-AI场景表现出显著态度差异。当AI拥有独立评分权(high agency)时,家长信任度骤降0.4668分(p=0.0236),导致使用意愿降低(间接效应-0.2428)。这种选择性担忧反映家长最关注可能直接影响子女学业评价的AI应用,对AI替代教师核心职能持谨慎态度。

【教师群体:解释性的价值】
教师对Answer-AI的分析最具启发性:算法解释性(explainability)提升0.8700分(p=0.0008)显著改善GU感知,间接提升使用意愿(效应值0.5194);而高自主性(agency)则产生负面影响(效应值-0.3337)。在Emotion-AI场景,过度隐私保护反而降低信任0.6581分(p=0.0012),显示教师认为情感支持需要适度透明。这种矛盾心态揭示教育工作者既希望理解AI决策逻辑,又要求其符合专业伦理。

研究结论指出,教育AI的接受度呈现"场景特异性"和"群体异质性"双重特征。全局效用(GU)是跨场景的关键中介变量,而信任构建需要差异化的策略:对学生应确保结果公平,对家长需控制AI自主程度,对教师则要强化算法解释性。值得注意的是,与可解释AI(XAI)领域预期相反,透明性和解释性并非直接影响接受度,而是通过提升信任和效用感知产生间接作用。

这项研究为教育AI的伦理部署提供了重要路线图。首先,AI系统设计应采用"渐进式自主"策略,在评分等高风险场景保留人工复核机制。其次,需要开发"场景适配"的解释工具,如用自然语言说明评分依据,而非简单展示算法参数。最后,应建立多方参与的治理框架,平衡隐私保护与教学透明度。随着生成式AI加速渗透教育领域,这些发现对制定负责任AI政策具有紧迫的实践价值。正如作者强调的,教育AI的发展不应是技术主导的单向过程,而需要构建包含"人类价值观校准"的新型文化想象。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号