编辑推荐:
在人工智能(AI)与人类协作日益紧密的当下,为探究信任与 AI 素养在人类 - 生成式 AI(GAI)团队协作中的关系,研究人员开展相关研究。结果显示 AI 素养影响信任形成,这为优化人机协作提供依据,助力提升团队效能。
随着科技飞速发展,生成式 AI(GAI)如大型语言模型,正逐渐融入组织和团队工作中,成为 “通用技术”。在未来工作场景里,人类与 GAI 协作将愈发普遍。然而,目前人类与 GAI 协作存在诸多问题。例如在医疗领域,IBM 的 Watson for Oncology 因医生不信任其推理和准确性,很多建议被忽视;教育领域,K-12 教师对 AI 作为教学伙伴持怀疑态度,仅约 6% 认为其利大于弊;软件开发和金融领域,团队也难以平衡对 AI 决策支持系统的信任度。这些现象表明,理解人类与 GAI 协作中的信任和 AI 素养至关重要,这不仅关乎团队效率,也影响着 AI 在各领域的应用推广。
为解决这些问题,来自未知研究机构的研究人员开展了一项关于 “AI Literacy and Trust: A Multi-Method Study of Human-GAI Team Collaboration” 的研究。该研究成果发表在《Computers in Human Behavior: Artificial Humans》上。研究表明,AI 素养显著影响人类对 GAI 的信任,进而影响人机协作效果。这一结论为优化人类与 GAI 协作提供了理论依据,有助于提升团队在 AI 辅助下的工作效能,推动 AI 在更多领域的有效应用。
研究人员采用了混合研究方法,主要包括以下关键技术:一是通过便利抽样选取 116 名美国东北部一所私立大学组织行为学课程的本科生作为研究对象;二是采用定性研究,让学生在团队项目中与 GAI 协作,通过开放性问题收集他们对 GAI 作为队友的信任感知;三是进行定量研究,运用 AI 素养量表、信任量表等工具,通过回归分析探究 AI 素养、信任与对 GAI 作为队友的感知之间的关系 。
研究结果
- 对 GAI 的信任感知:通过定性研究发现,参与者对 GAI 作为队友的信任可分为信任(52%)、不信任(26%)和矛盾态度(22%)。信任者认为 GAI 有助于信息生成,但也会进行事实核查;不信任者主要担忧信息不准确;持矛盾态度者则既认可 GAI 的信息检索能力,又对其可信度存疑。
- AI 素养对信任的影响:定量研究表明,在 AI 素养的构成中,知识和感知价值对信任有显著影响。知识方面,了解 GAI 越多的参与者越倾向于不信任它;而感知价值方面,认为 GAI 能力价值高的参与者更可能信任它,感知担忧则对信任无显著影响。
- AI 素养、信任对 GAI 队友感知的影响:进一步分析发现,感知价值和信任显著影响对 GAI 作为队友的积极感知。信任或对 GAI 持矛盾态度的参与者,比不信任者更认可 GAI 作为队友。
研究结论与讨论
本研究拓展了传统信任框架,将其应用于人类 - GAI 协作场景,明确了领域特定的 AI 素养在塑造协作团队中信任动态的重要作用。研究发现,AI 素养的知识和感知价值等不同方面,对个体对 GAI 作为队友的信任和感知有不同影响,且信任具有情境性,个体基于任务情境和价值一致性选择性信任 GAI。这一结论在理论上丰富了信任研究,通过将 Mayer 等人 1995 年的信任模型应用于人类 - GAI 交互,深入阐释了信任发展过程;在实践中,为教育者和机构提供了指导,强调培养平衡的 AI 素养的重要性,让人们既能有效利用 GAI,又能理性看待其局限性。随着 GAI 在教育和职业环境中的广泛应用,本研究为有效整合 GAI 到团队项目中提供了重要的实证依据和实践建议,有助于推动人机协作的进一步发展 。