负责任人工智能(AI)使用对用户行为意向的影响:基于扩展UTAUT模型的实证研究

【字体: 时间:2025年10月13日 来源:Journal of Innovation & Knowledge 15.5

编辑推荐:

  本研究聚焦人工智能(AI)伦理实践对技术采纳的影响,针对当前AI应用中法律、伦理及实践层面研究不足的问题,以黎巴嫩为研究背景,基于整合技术接受与使用理论(UTAUT)框架,引入负责任AI(Responsible AI)构建,采用结构方程模型(SEM)分析其对用户行为意向(BI)的驱动机制。结果表明,负责任AI实践显著正向影响技术采纳,其中受益性、自主性、公正性等伦理维度是关键预测因子。该研究不仅拓展了UTAUT模型的理论边界,还为新兴市场背景下推动伦理导向的AI治理提供了实践启示。

  
随着人工智能(AI)技术快速渗透至日常生活和各行各业,其在提升效率、驱动经济价值创造的同时,也引发了诸多法律、伦理与社会层面的担忧。尽管全球AI软件市场规模预计到2030年将超过1260亿美元,但人们对如何负责任地开发、部署和使用AI系统仍缺乏全面理解。特别是在黎巴嫩这样面临严重社会经济危机、腐败问题和高通胀的国家,AI技术的引入既被视为数字化转型的机遇,也可能加剧现有不平等与伦理风险。因此,探究负责任AI(Responsible AI)如何影响用户行为意向(Behavioral Intention, BI),不仅具有理论价值,更对政策制定、组织管理和技术实践具有紧迫的现实意义。
在这一背景下,Charbel Chedrawi、Gloria Haddad、Abbas Tarhini、Souheir Osta和Nahil Kazoun等研究人员在《Journal of Innovation》发表了一项深入研究。该研究以黎巴嫩为实证场景,基于经典的技术接受与使用理论(Unified Theory of Acceptance and Use of Technology, UTAUT),引入负责任AI的多维伦理构念,通过结构方程模型(Structural Equation Modeling, SEM)系统检验了这些因素如何共同塑造用户对AI的接受与使用意愿。
为开展本研究,团队于2022年1月至3月间在黎巴嫩多行业领域随机抽取432名参与者进行问卷调查。主要采用基于协方差的结构方程模型(SEM)进行分析,使用AMOS软件估算模型拟合和路径系数,并借助SPSS 25.0进行数据预处理与信度检验。模型中涵盖了绩效期望(Performance Expectancy, PE)、努力期望(Effort Expectancy, EE)、社会影响(Social Influence, SI)、促进条件(Facilitating Conditions, FC)等UTAUT核心变量,以及负责任AI所涉及的五个伦理维度:受益性(Beneficence, B)、非恶意性(Non-maleficence, NM)、自主性(Autonomy, A)、公正性(Justice, J)和可解释性(Explicability, E)。问卷均采用Likert 7点尺度度量,并使用Cronbach’s α系数检验各变量的信度。
研究结果通过多个模型展开,分别从整体负责任AI构念和其五个子维度两个层面验证了研究假设。
首先,在扩展UTAUT模型整合负责任AI的整体检验中,模型拟合指标为χ2=134.545(p<0.001),CFI=0.921,TLI=0.669,RMSEA=0.245。结果显示,绩效期望(β=0.177, p<0.001)、努力期望(β=0.123, p=0.008)、促进条件(β=0.142, p<0.001)均显著正向影响行为意向,而社会影响则呈显著负相关(β=-0.097, p=0.017)。最关键的是,负责任AI作为整体构念对行为意向的影响最为显著(β=0.515, p<0.001),模型整体解释了行为意向59.5%的方差。
其次,在控制变量模型中,加入了年龄、性别和AI使用经验作为控制因素后,模型仍保持稳定,核心变量与行为意向的关系方向与显著性未发生明显变化,说明模型具有较好的稳健性。特别值得注意的是,在黎巴嫩样本中,年龄与性别对行为意向无显著影响,研究者认为这可能与样本本身已具备较高技术熟悉度有关。
最后,在解构负责任AI的五维伦理模型中,模型拟合虽有所下降(χ2=1643.256, CFI=0.491, TLI=-0.473, RMSEA=0.445),但路径分析呈现出丰富的结果:受益性(β=0.377, p<0.001)、自主性(β=0.217, p<0.001)、公正性(β=0.165, p<0.001)和可解释性(β=0.080, p=0.018)均显著正向影响行为意向,而非恶意性却出人意料地呈现负向影响(β=-0.231, p<0.001)。社会影响在此模型中变得不显著。该模型仍解释了行为意向53.3%的变异。
研究表明,负责任AI实践显著增强用户对AI技术的接受与使用意愿,其影响力甚至超过传统UTAUT因素。绩效期望、努力期望和促进条件仍是重要驱动因素,但社会影响在特定情境下——如黎巴嫩的高不确定性和危机背景中——可能引发抵触心理。这一结果暗示,单纯依靠社会宣传或规范压力推广AI技术可能适得其反,反而需要更强调其实际效用、易用性和组织支持。
尤为关键的是,伦理维度中除非恶意性外均显著促进用户行为意向,说明用户高度重视AI技术的正向社会效益、对自主权的保护、决策公正性及系统可解释性。非恶意性的负相关可能源于用户对安全与隐私保护的更高期待与现实感知之间的差距,反映出在危机环境中,用户对潜在危害尤为敏感。
基于这些结论,研究者提出四项实践建议:评估现有机构对AI错误的应对能力与法规伦理框架;开发可解释AI(Explainable AI)与强健的IT基础设施;通过资金激励引导注重社会效益的AI项目;以及推动专业伦理规范与公众教育,增强社会对AI伦理的认知与信任。
该研究不仅在理论层面扩展了UTAUT模型,融入伦理维度,还为高风险社会环境中的AI治理提供了实证依据。它强调,AI的成功采纳不仅倚仗其技术性能,更取决于是否以负责任、合乎伦理的方式设计与实施。这一认识对全球范围内尤其是新兴市场的AI政策制定、企业实践与后续研究具有重要借鉴意义。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号