生成式AI自我效能感与接受度的关系:信任的中介作用与风险感知的调节效应

《Acta Psychologica》:Association between Generative AI self-efficacy and Generative AI acceptance: The mediating role of Generative AI trust and the moderating role of Generative AI risk perception

【字体: 时间:2025年10月16日 来源:Acta Psychologica 2.7

编辑推荐:

  本研究针对大学生群体,探讨生成式AI自我效能感如何通过信任的中介机制影响技术接受度,并揭示风险感知的负面调节作用。研究发现,自我效能感的四个维度(辅助性、拟人化交互、舒适度、技术技能)均正向预测接受度,其中信任在拟人化交互和技术技能维度中发挥完全中介效应。风险感知显著削弱信任对接受度的正向影响。该研究为理解生成式AI采纳机制提供理论框架,对促进人工智能教育融合具有实践意义。

  
随着ChatGPT等生成式人工智能技术的爆发式增长,全球教育领域正面临前所未有的技术变革浪潮。作为数字原住民的大学生群体,已成为生成式AI最活跃的使用者——他们利用智能工具进行文献检索、论文润色、代码编写甚至情感交互。然而一个令人困惑的现象逐渐浮现:为何有些学生能娴熟运用AI提升学习效率,而另一些学生却对这项技术持怀疑态度?这种差异背后究竟隐藏着怎样的心理机制?
中山大学社会学与人类学学院的研究团队在《Acta Psychologica》发表的最新研究,首次将社会认知理论(Social Cognitive Theory)与技术接受模型(Technology Acceptance Model, TAM)整合,构建了一个包含生成式AI自我效能感(Generative AI Self-efficacy)、信任(Trust)和风险感知(Risk Perception)的综合框架,通过对292名中国大学生的实证调查,揭示了影响技术采纳的关键心理路径。
研究团队采用多阶段混合研究方法:首先通过G*Power 3.1.9.7进行样本量计算,确定最小样本量为138例;随后采用便利抽样法从三所高校收集数据,使用经过汉化修订的生成式AI自我效能感量表(22条目)、信任量表(3条目)、风险感知量表(9条目)和接受度量表(20条目)进行测量;最后运用结构方程模型(Structural Equation Model)和SPSS PROCESS 4.0中的Model 1进行中介和调节效应检验。所有量表均采用Likert 7点或5点计分法,并通过Cronbach's α系数验证信度(0.95-0.96)。
4.1 性别与专业在生成式AI接受度上的差异
数据分析显示,男大学生接受度得分(3.63±0.61)与女大学生(3.59±0.45)无显著差异(t=0.65, P>0.05)。不同专业学生中,人文社科类接受度最高(3.87±0.43),医学类最低(3.54±0.44),但组间差异未达统计学意义(F=1.90, P>0.05)。这表明人口学变量可能不是影响生成式AI采纳的关键因素。
4.2 描述性统计与相关性分析
核心变量间呈现显著关联模式:自我效能感与信任呈强正相关(r=0.66, P<0.01),与风险感知呈负相关(r=-0.18, P<0.01),与接受度正相关(r=0.59, P<0.01)。特别值得注意的是,技术技能维度与信任的相关性最高(r=0.64),而舒适度维度与风险感知的负向关联最显著(r=-0.22)。
4.3 生成式AI信任的中介效应与风险感知的调节效应
路径分析揭示:自我效能感不仅直接预测接受度(β=0.49, P<0.001),还通过信任产生间接效应(效应值0.10, 95%CI[0.004,0.19])。具体而言,拟人化交互(β=0.25)和技术技能(β=0.39)通过信任完全中介影响接受度。而风险感知则显著负向调节信任-接受度路径(β=-0.08, P<0.05),即当风险感知水平较高时,信任对接受度的促进作用被明显削弱。
这项研究的重要发现在于揭示了生成式AI采纳的心理机制具有多维复杂性。自我效能感的四个维度中,辅助性(β=0.34)、舒适度(β=0.19)和技术技能(β=0.16)直接驱动接受度,而拟人化交互和技术技能则需通过信任构建间接发挥作用。这验证了技术接受模型在生成式AI场景下的适用性,同时拓展了社会认知理论的应用边界。
特别具有理论价值的是风险感知的"削弱效应"——即使学生具备高水平技术信任,一旦意识到AI可能带来的学术不端、信息误差等风险,其采纳意愿就会显著降低。这一发现解释了为何在技术条件相似的情况下,个体采纳行为存在显著差异,为制定差异化的AI教育推广策略提供了依据。
研究结果对教育实践具有重要启示:首先,应通过系统培训提升学生的技术技能和舒适度,直接增强采纳意愿;其次,优化AI产品的拟人化交互设计,通过提升使用体验构建信任机制;最后,必须建立风险防控体系,通过透明化算法、伦理教育等方式降低风险感知,使信任能够有效转化为使用行为。
该研究的创新点在于将新兴技术采纳研究从传统的影响因素识别推向机制解析层面,首次验证了信任-风险感知的动态平衡模型。未来研究可拓展至不同文化背景群体,并采用实验法进一步验证因果关系,为人工智能时代的教育变革提供更丰富的理论支撑。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号