动机型教学代理在自适应学习系统中如何重塑学生的策略选择与自我调节学习

《npj Science of Learning》:Choice-making in an adaptive learning system with motivational pedagogical agents

【字体: 时间:2025年11月19日 来源:npj Science of Learning 3

编辑推荐:

  本研究针对自适应学习系统如何通过动机型教学代理(PAs)影响学生概念理解与策略选择这一关键问题展开。研究人员通过对比49名9-10年级学生在代数学习环境中使用动机型PAs与普通提示系统的差异,发现先前知识显著调节学习效果:低先前知识(LPK)学生通过基础任务获得最大增益,而高先前知识(HPK)学生易采用直觉性错误策略。过程挖掘和滞后序列分析揭示了不同知识水平学生独特的决策轨迹,首次将选择操作化为可测量的自我调节学习(SRL)构念,并将策略性脱离重新定义为适应性行为。这项发表于《npj Science of Learning》的研究为设计支持内容掌握与策略选择的自适应系统提供了重要启示。

  
在教育技术迅猛发展的今天,自适应学习系统被寄予厚望,它们承诺能够像一位耐心的私人教师一样,为每个学生提供量身定制的学习体验。然而,一个核心挑战依然存在:如何在这些系统中培养学生的自主性,使他们不仅掌握知识,更能成为善于规划、监控和调整自己学习过程的自我调节学习者(Self-Regulated Learner, SRL)。其中,“选择”——
即学习者在关键时刻决定是否接受挑战、寻求帮助或改变策略——
被认为是SRL的核心体现,但我们对它在自适应环境中的动态过程知之甚少。
尽管智能辅导系统(Intelligent Tutoring Systems, ITS)越来越多地引入教学代理(Pedagogical Agents, PAs)来提升互动性,但一个关键空白在于,我们不清楚这些代理,特别是那些传递动机性信息的代理,是如何具体影响学生,尤其是不同知识背景学生的概念理解和策略性决策的。现有研究多关注任务完成率等聚合指标,而忽视了从问题解决路径、提示请求频率等细粒度过程数据中揭示决策机制。这限制了我们理解学习者如何与系统动态互动,并做出影响学习效果的关键选择。
为了填补这一空白,由Man Su、Belle Dang、Andy Nguyen和Tomohiro Nagashima组成的研究团队在《npj Science of Learning》上发表了一项研究,深入探究了在聚焦代数的自适应学习系统中,带有动机提示的教学代理如何影响学生的概念理解和策略性选择。研究特别关注学生的先前知识(prior knowledge)在这一过程中扮演的调节角色。
研究揭示了几个关键发现。首先,尽管所有学生都显示了从前测到后测的学习进步,但教学代理(Agent Condition)本身对后测成绩或错误率的主效应并不显著。真正强大的影响因素是学生的先前知识。高先前知识(High-Prior-Knowledge, HPK)的学生在后测中得分显著高于低先前知识(Low-Prior-Knowledge, LPK)的学生。然而,在学习增益(后测分-前测分)上,LPK学生却表现出更大的提升,这主要是由于他们的起点较低。描述性数据还显示,代理条件下的LPK学生学习增益最高,而代理条件下的HPK学生错误率最低。
其次,在选择行为上,虽然总体选择频率在条件间无显著差异,但不同知识水平的学生表现出鲜明的任务偏好。LPK学生更倾向于选择基础性任务,如例题学习(Worked Examples),以建立信心。而HPK学生则更积极地投入到高级任务中,如应用高级均衡策略(Advanced Equalization)。值得注意的是,在非代理条件下,LPK学生的选择频率高于HPK学生,但在代理条件下,这一趋势发生了逆转,HPK学生的选择频率更高,暗示动机型教学代理的效果可能依赖于学生的知识水平。
研究最引人入胜的部分在于对动态选择过程的分析。通过滞后序列分析(Lag Sequential Analysis, LSA)和过程挖掘(Process Mining)这些先进的分析技术,研究者得以窥见学生决策的微观序列和宏观路径。
滞后序列分析揭示了HPK和LPK学生共有及特有的行为序列。两者都表现出从“拒绝提示(NoToPrompt)”或“正确决策(CorrectDecision)”到“尝试成功(AttemptSuccess)”的常见路径,以及成功后在“接受提示(YesToPrompt)”和“拒绝提示(NoToPrompt)”间交替的模式。然而,关键差异显现出来:HPK学生展现出独特的信心驱动模式,例如他们能够跳过预备任务(“拒绝额外任务[NoToExtra]”)直接取得成功,并且在成功后更倾向于接受提示并选择高级任务。相反,LPK学生则表现出独特的预备性路径,即通过先“接受额外任务(YesToExtra)”(如学习例题)来为后续成功奠定基础。一个值得警惕的发现是,HPK学生出现了“尝试失败→尝试失败→尝试失败(FailedAttempt→FailedAttempt→FailedAttempt)”的显著序列,表明他们有时会陷入无反思的重复错误,而非进行策略调整。
过程挖掘图谱从宏观层面印证了这些模式。HPK组的学生更倾向于从一开始就避免预备任务,直接进入核心任务并取得高成功率,随后才逐渐增加对高级任务和提示的参与。而LPK组的学生则在初期更多地参与预备任务,但随着进程推进,他们回避高级任务的倾向变得明显。有趣的是,尽管LPK组的总失败次数更多,但他们正确决策的比例却高于HPK组,这反映了他们更为谨慎和反思性的决策方式。
关键技术与方法概述
本研究采用前后测对照组设计,49名9-10年级德国中学生被随机分配到使用动机型教学代理的实验组或仅使用教学提示的控制组,在AlgeSPACE代数自适应学习系统中进行25分钟的学习。通过前后测(评估方法选择、数学论证和程序流畅性)测量概念理解增益,以中位数分割法划分高/低先前知识组。利用系统日志记录学生在8种选择场景(如例题学习、自我解释、策略比较等)中的互动数据,映射为8类学习决策行为。采用协方差分析(ANCOVA)和方差分析(ANOVA)检验教学代理和先前知识对学习结果的影响,并运用滞后序列分析(LSA)和过程挖掘(Process Mining)深入分析选择行为的微观序列和宏观模式。
概念理解(研究问题1)
所有学生均显示出学习增益,平均提高4.22分。教学代理条件的学生在学习增益上显示出优于非代理条件的趋势,但条件的主效应不显著。先前知识是后测成绩和错误率的显著预测因子。HPK学生后测成绩显著高于LPK学生,而LPK学生的学习增益更大。错误率分析显示HPK学生(尤其是代理条件下)有更低的趋势。
选择行为(研究问题2)
学生在所有场景中平均参与了55%的可选任务机会。LPK学生更倾向于参与基础任务(如例题),而HPK学生更常选择高级任务。在非代理条件下,LPK学生的选择频率高于HPK学生;但在代理条件下,HPK学生的选择频率反超LPK学生,表明动机型代理的效果受先前知识调节。
动态选择过程(研究问题3)
滞后序列分析揭示了HPK和LPK学生共有及特有的显著行为序列。HPK学生表现出信心驱动的模式,如跳过预备任务直接成功,以及在成功后更倾向于接受提示和选择高级任务。LPK学生则表现出独特的预备性路径,依赖基础任务建立信心。HPK学生中还发现了无反思重复错误的序列。过程挖掘确认了HPK学生倾向于直接开始任务,后期才增加高级任务参与,而LPK学生早期参与预备任务较多,但后期回避高级任务,且正确决策比例更高。
研究结论与意义
本研究深入探讨了动机型教学代理在自适应学习系统中对不同知识水平学生概念理解与策略选择的影响。其理论贡献主要有二:一是将“选择”操作化为一个可测量、可时序分析的SRL具体构念,通过过程挖掘等方法揭示了其动态过程,深化了对Zimmerman循环SRL模型和Oppezzo与Schwartz行为改变阶段模型的理解;二是将“策略性脱离”重新定义为一种适应性的、体现主体性的自我调节行为,而非简单的消极回避,这为理解学生在学习环境中的行为提供了新视角。
在实践中,本研究为自适应学习系统的设计提供了重要启示。系统应为不同知识水平的学生提供差异化的支架:对LPK学生,应鼓励其反思性参与基础任务;对HPK学生,则需在其成功後提出挑战性提示,促使其进行深度推理,避免直觉性错误。系统还应通过设计(如提供带有具体跳过原因的“跳过任务”按钮)将策略性脱离塑造为一种元认知行为,尊重并支持学生的学习主体性。此外,采用过程挖掘等细粒度分析方法有助于更精准地识别学生需求,从而实现更及时、有针对性的教学干预。
研究的局限性包括样本量较小、干预时间短、局限于单一学科(代数)和单一动机理论(期望-价值理论)框架。未来研究可在更广泛的文化背景和学科领域中进行验证,探索其他动机理论指导的提示设计,并采用纵向设计和多模态数据(如眼动追踪)来更全面地理解选择背后的认知与情感过程。
总之,这项研究强调了在自适应学习环境中考虑学生先前知识的重要性,并为设计能够有效培养所有学生成为战略型自调节学习者的智能系统提供了宝贵的理论和实践指导。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号