责任与人工智能:探索技术接受模型中的责任变量作为新预测因子及其对学生AI接受度的影响研究

【字体: 时间:2025年10月22日 来源:Journal of Infection and Public Health 4

编辑推荐:

  本研究针对人工智能(AI)接受度研究中缺乏规范性维度的现状,通过比较技术接受模型(TAM)、统一技术接受与使用理论(UTAUT)和基于价值的采纳模型(VAM),引入责任变量作为新预测因子,对2098名大学生进行横断面调查。研究发现,责任变量(包括法律、道德、工程和算法责任)显著提升模型解释力,其中VAM解释力最高(R2=25.6%)。该研究为AI技术实施策略和政策制定提供了基于社会价值的理论框架,强调将伦理与社会方面纳入技术接受模型的必要性。

  
随着人工智能(AI)技术的飞速发展,其应用已渗透到社会制度、市场运作和日常生活的方方面面。然而,AI的普及不仅带来技术效率的提升,更引发了关于责任归属、信任建立和伦理规范的新挑战。尽管现有研究广泛采用技术接受模型(Technology Acceptance Model, TAM)、统一技术接受与使用理论(Unified Theory of Acceptance and Use of Technology, UTAUT)和基于价值的采纳模型(Value-Based Adoption Model, VAM)来解释用户对新技术的行为意向,但这些模型主要关注功能性和实用性维度(如感知有用性Perceived Usefulness, PU和感知易用性Perceived Ease of Use, PEoU),忽略了技术使用中的伦理和社会责任因素。尤其在AI语境下,责任问题——例如算法决策的透明度、错误后果的承担者以及道德义务的划分——已成为影响用户接受度的关键。目前,年轻群体如大学生作为技术的早期采纳者和未来决策者,他们对AI的责任认知将深刻影响技术实施的方向和规范制定,但这一领域尚未得到系统探索。
为填补这一研究空白,Stanis?aw Fel、Jaros?aw Kozak和Piotr Horodyski开展了一项针对英国和波兰大学生的大规模研究,旨在通过引入责任变量作为新预测因子,比较TAM、UTAUT和VAM在解释AI接受度方面的有效性。该研究发表于《Journal of Infection and Public Health》,不仅拓展了技术接受理论的理论框架,还为AI策略和政策制定提供了实证基础。
研究人员采用横断面调查设计,通过计算机辅助网络访谈(Computer-Assisted Web Interview, CAWI)于2023年12月至2024年1月间收集了2098名大学生的数据。样本覆盖多学科领域,并通过受访者驱动抽样(Respondent-Driven Sampling)和英国Savanta研究面板确保代表性。主要测量工具包括行为组件(如AI工具使用频率)、认知和情感维度,并使用线性回归分析评估模型预测力。责任变量通过场景化问题操作化(如自动驾驶汽车事故责任归属),分为法律、道德、工程和算法责任四个独立维度。

研究结果

模型比较与责任变量的引入

初始分析显示,仅包含人口统计学变量的模型解释力较低(R2=1.4%)。加入TAM、UTAUT和VAM核心构造后,解释力仍有限(TAM R2=4.7%;UTAUT R2=8.3%;VAM R2=11.2%),表明传统模型未能充分捕捉AI接受度的复杂性。当引入责任变量后,所有模型的解释力显著提升:TAM增至20.7%,UTAUT增至22.3%,VAM增至25.6%。这表明责任变量是AI接受度的关键预测因子,且VAM因其强调价值感知和情感因素(如愉悦感和信任),成为最适合解释学生AI接受行为的模型。

责任维度的具体影响

  • 道德责任(如用户对AI使用后果的承担意愿)在所有模型中影响最大(β值0.313–0.337),说明用户对自身道德义务的认知强烈驱动AI使用意向。
  • 法律责任(如AI工具所有者或租赁公司的责任)同样呈正相关(β值0.116–0.123),但效应略低于道德责任。
  • 工程与算法责任(如工程师和开发者的责任)在VAM和UTAUT中显著,凸显技术创建者的角色在价值评估和社会影响中的重要性。

其他预测因子的作用

除了责任变量,感知易用性(PEoU)、感知有用性(PU)、性能期望(Performance Expectancy, PE)和社会影响(Social Influence, SI)均正向影响AI使用频率。相反,教育水平(越高使用越低)和感知成本(如付费需求)负向影响接受度。

研究结论与意义

本研究通过实证数据证明,责任变量——涵盖法律、道德、工程和算法维度——能显著增强经典技术接受模型对AI接受度的解释力。这一发现不仅拓展了TAM、UTAUT和VAM的理论框架,引入了长期被忽视的规范伦理成分,还突出了VAM在分析新兴技术时的优越性,因其兼顾功能性和情感价值因素。
实践上,该研究为AI开发者、教育者和政策制定者提供了重要启示:开发者需设计透明且责任明确的系统以增强用户信任;教育机构应将责任伦理纳入课程,培养学生的批判性技术思维;政策层面需建立法规框架,明确AI错误的责任归属,从而促进技术与社会价值的对齐。此外,文化因素可能调节责任认知,未来研究可探索跨文化比较,以更全面理解责任在技术接受中的作用。
总之,这项研究标志着技术接受研究从功能主义向包容性范式的转变,强调AI的成功实施不仅依赖效率,更需与社会责任和伦理规范相融合。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号