生成式人工智能对学术学习的感知影响:基于技术接受模型(TAM)与自我决定理论(SDT)的实证研究
【字体:
大
中
小
】
时间:2025年10月06日
来源:Frontiers in Artificial Intelligence 4.7
编辑推荐:
本综述深入探讨了以ChatGPT为代表的生成式人工智能(AI)在高等教育中的应用及其对学生学习动机、技术接受度和伦理意识的影响。研究基于技术接受模型(TAM)和自我决定理论(SDT),通过对84名工科大学生的问卷调查,揭示了ChatGPT在问题解决、知识保留、结构化交互等六个维度的显著作用。文章强调,尽管AI工具能有效提升学习自主性与能力感,过度依赖亦可能引发学术诚信风险。研究结果呼吁教育者将AI素养培训与制度政策相结合,以推动其在技术驱动学习环境中的负责任使用。
生成式人工智能(AI)尤其是ChatGPT的出现,正在深刻改变高等教育的教与学方式。它通过提供动态的、对话驱动的学习支持,超越了传统教材和视频课程的功能。ChatGPT能够即时生成个性化解释与多样化内容,既为学术圈带来兴奋,也引发了关于抄袭、过度依赖及伦理风险的广泛担忧。本研究聚焦于工科大学生对ChatGPT的感知与使用行为,旨在系统评估其学术效益、潜在风险及对学习成果的影响,为推动AI在教育中的负责任整合提供实证依据。
AI工具如ChatGPT、自动写作评估系统(AWE)和GRAD-AI平台,通过提供定制化反馈显著促进个性化学习。它们能根据学生需求调整内容,例如生成解释、总结文本或解决技术问题,从而提升学习效率与参与度。GRAD-AI专为编程课程设计,可自动评分代码并提供详细反馈,减轻教师负担。然而,研究也警示,过度依赖AI可能削弱学生的批判性思维,尤其是当学生追求快速答案而非深度理解时。因此,需在AI支持与传统教学方法间寻求平衡,以维持学术严谨性。
AI素养定义为理解、使用和批判性评估AI技术的能力,在高等教育中愈发重要。这包括技术知识(如大语言模型的工作原理)、对输出准确性与偏见的批判评估,以及伦理意识。学生使用ChatGPT时需验证响应以避免错误信息,这要求教育者结合以人为本的教学法培养AI素养。当前课程普遍缺乏结构化AI素养训练,学生多依赖非正式途径发展这些技能,尤其在工科领域,学生可能因AI输出的表面合理性而高估其可靠性。
AI在教育中的应用引发了一系列伦理问题,包括学术诚信、数据隐私和公平访问。ChatGPT生成论文与解题能力增加了抄袭风险,学生可能提交AI生成内容而未适当引用。数据安全担忧同样突出,AI平台收集敏感学生信息,需强化隐私政策。此外,AI工具的可及性不平等可能加剧教育差距。过度使用AI还可能减少社会互动,削弱学生的归属感。算法偏见问题亦不容忽视,嵌入式偏见可能传播刻板印象或错误信息,需通过教育者引导和结构化整合来缓解。
教育者需适应AI整合的教育环境,从知识传授者转变为学习促进者。培训教育者使用AI工具、指导伦理实践至关重要。例如,建模负责任使用、开发明确伦理框架,能帮助学生理解AI的边界与责任。
本研究旨在评估工科学生对ChatGPT的感知与使用模式,检验其学术任务效益及抄袭、依赖等风险。基于技术接受模型(TAM),提出以下假设:H1-感知ChatGPT对问题解决有用的学生将报告更强的学习保留与技能获取;H2-与熟悉主题的结构化交互更可能验证AI输出准确性;H3-频繁咨询熟悉与不熟悉主题会增加学习收益与依赖;H4-广泛使用ChatGPT与有限引用实践相关,揭示学术诚信风险。
研究样本为84名工科学生,通过便利抽样选取,90%为本科生(其中70%为一年级),10%为硕士生,性别比例均衡(40%女性,60%男性)。所有参与者来自布加勒斯特理工大学,75%来自自动控制与计算机学院,其余来自电子、电信与信息技术学院(9.5%)、应用科学学院(6%)、工业工程学院(3.5%)及其他学院(6%)。研究遵循伦理准则,确保知情同意与匿名性。
采用Google Forms问卷,评估学习动机、AI素养、抄袭与伦理意识三个理论构念。38个条目使用5点李克特量表(1=强烈不同意,5=强烈同意),涵盖文本生成、问题解决与概念理解等多种应用。问卷经三位大学专家评审,内容效度指数(CVI)为0.991,表明工具具有高内容效度。问卷通过大学门户分发,为期两周,确保匿名性。
使用描述性与推理性统计技术分析数据。因李克特数据为序数特征,采用非参数检验如Wilcoxon符号秩检验与Friedman检验。通过探索性因子分析(EFA)提取学生与ChatGPT交互的潜在维度,使用主轴因子提取与Promax旋转。采样充足性通过KMO检验与Bartlett球形检验确认。显著性水平设为α=0.05,使用Python与SPSS进行数据分析与可视化。
探索性因子分析揭示六个学生与ChatGPT交互的维度:感知问题解决效用(F1)、学习保留与技能获取(F2)、与熟悉主题的结构化交互(F3)、咨询不熟悉主题(F4)、简洁性偏好(F5)、验证行为(F6)。六因子累计解释方差52.8%,KMO=0.705,Bartlett检验p<0.001,表明数据结构良好。
H1得到支持,感知ChatGPT对问题解决有用的学生显著报告更高学习保留与技能获取(r=0.34, p=0.002)。学生偏好视频课程、在线文章与教授笔记胜过ChatGPT与书籍,反映向AI驱动学习的转变。ChatGPT帮助学生快速解决技术挑战,复制步骤时感觉直观,这看似促进自主性,但不一定代表真实技能获取。内在动机是接受ChatGPT的主要因素,学生认可其帮助理解曾视为难以克服的概念或程序。
H2获支持,结构化交互与熟悉主题(F3)显著预测验证行为(F6)(r=0.38, p<0.001)。回归分析显示F3解释14.5%方差(β=0.38, p<0.001),表明谨慎查询的学生更 conscientious 验证输出。学生区分逻辑错误与事实错误,认为逻辑错误更常见(p=0.003),反映一定AI素养。然而,Friedman检验显示不同使用动机(如时间不足、理解概念、解决作业)的感知有用性无统计差异(p=0.155),表明使用模式多样。
H3获支持,F3与F4均与学习收益与依赖(F6)正相关(F3: r=0.38, p<0.001; F4: r=0.35, p=0.001)。多元回归表明两者共同解释21.8%方差(F3: β=0.32, p=0.002; F4: β=0.28, p=0.008),显示ChatGPT在熟悉与不熟悉任务中的使用关联更强学习感知但也增加依赖。
学生对作业中使用AI的态度差异显著(p<0.001)。细微修改AI输出是最常用方法,很少提及AI生成内容,这实为抄袭,部分支持H4。然而,EFA未提取出抄袭专属因子,因此无法直接检验H4,需未来研究开发特定测量工具。
本研究通过六维认知-行为框架,平衡审视生成式AI在教育中的应用。学生视ChatGPT为问题解决与学习支持的有价值工具,但其教育潜力受使用方式与目的制约。结果表明,需将学习动机、AI素养与学术诚信视为相互依存的面相,系统整合于负责任AI采用议程。仅提升技术熟练度不足,还必须提供关于AI学习伦理与认识论边界的指导。
研究样本为便利抽样,局限于一所工科大学,结果可能不适用于全球学生或其他学科(如医学、人文)。缺乏定性成分限制洞察深度,自报告数据可能存在偏差。本科生与硕士生样本量不均,阻碍比较分析。未来研究应优先更大、更多样化样本与纵向方法,深入理解AI使用的长期效应。
教育者应参与专业发展,深化AI工具理解,指导学生有效利用ChatGPT同时 proactively 应对抄袭等风险。机构需制定清晰、全面的AI使用指南,强调适当引用实践,维护学术诚信。AI素养应融入技术课程, equip 学生批判性评估AI生成输出的技能。最后,结合ChatGPT与传统教学方法,培养批判思维与社会参与,确保AI增强而非主导全人学习体验。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号