当误解与人工智能相遇时:信任在人与人工智能以及人与人之间的团队沟通与协作中的关键作用

《Frontiers in Psychology》:When misunderstanding meets artificial intelligence: the critical role of trust in human–AI and human–human team communication and performance

【字体: 时间:2025年10月24日 来源:Frontiers in Psychology 2.9

编辑推荐:

  信任与误解类型对人类-AI团队协作的影响:基于进化心理学和信任理论的实证研究。

  人工智能(AI)正日益融入组织团队协作,这使得在人类与AI合作过程中管理沟通障碍成为一项重要的管理挑战。尽管AI赋能的团队通常能够提高效率,但在信息交流过程中,AI代理引发的误解可能会削弱团队信任,影响整体表现。目前,关于这些影响的机制仍不充分。

本研究基于进化心理学和信任理论,采用了一种2×2的实验设计,探讨团队类型(人类-人类 vs. 人类-AI)与误解类型(信息遗漏 vs. 模糊表达)对沟通效率和团队表现的影响。实验共招募了126名有效参与者,他们与各自的队友共同完成了一项关于科普类社交媒体专栏的规划与撰写任务。参与者被随机分配到四个实验组,每组32人,确保各组之间的平衡。

研究结果表明,AI代理造成的信息遗漏显著降低了团队信任,从而影响沟通效率和整体表现。相比之下,模糊表达的负面影响则受到团队信任水平的调节;信任较高的团队表现出更强的适应性和韧性。此外,调节中介分析进一步揭示了团队类型对误解到信任和表现之间的动态路径的影响。这些发现强调了误解管理在人类-AI团队中的重要性,并为优化AI系统和促进有效的人机协作提供了理论支持和实践启示。

在实际应用中,AI被广泛部署于各种高价值的协作任务中。在医疗领域,AI协助诊断团队提高决策的准确性和效率;在商业中,战略团队利用AI分析复杂的市场数据以优化规划;在科学研究中,AI通过大规模数据挖掘加速知识发现。这些案例表明,人类-AI团队可以利用互补的优势来实现更好的集体成果。然而,随着AI在这些决策过程中的深入嵌入,人类与AI成员之间的误解变得更加明显。例如,AI可能误解模糊的人类输入,未能理解细微的上下文线索,或者生成与专家直觉相冲突的建议。这些误解可能导致混乱、低效,甚至信任的破裂。然而,持续的误解和信任问题仍然阻碍着协作,提出了一个基本的管理问题:如何将AI从潜在的障碍转化为可靠的合作伙伴。

尽管对AI增强的团队协作兴趣迅速增长,但当前文献主要关注任务分配、功能优化和绩效提升,较少关注人类-AI团队内部的微观互动机制。特别是,对于误解如何被管理以及信任如何在这些混合协作中建立,目前研究仍较为有限。误解在团队沟通中很常见,但在人类-AI环境中尤为复杂和多样。AI代理可能由于算法限制而未能传达完整信息,或生成缺乏人类细腻的表达。这些误解类型可能会破坏团队成员之间的认知协调,削弱团队信任的基础,最终影响沟通效率和团队表现。

基于这一背景,本研究借鉴进化心理学和信任理论,探讨误解类型对人类-AI协作中信任和沟通的影响。进化心理学强调信任是一种适应性机制,用于促进合作和管理风险,而信任理论则解释信任如何在团队环境中建立、维持和可能被破坏。在人类-AI团队中,这种视角揭示了误解不仅源于技术限制,还源于认知过程的差异以及AI互动中缺乏人类社会信号。通过将误解置于这一理论框架下,我们可以更好地理解其对认知协调和信任构建过程的影响。通过分析理论空白和实际困境,我们旨在揭示误解如何塑造混合人类-AI团队中的认知协调和信任发展。具体而言,本研究通过提供概念性见解和实证证据,为关于团队协作与智能系统的文献做出了贡献,并为组织如何克服沟通障碍和在深度人机协作时代建立信任提供了实用指导。此外,本研究还强调了AI驱动互动中缺乏丰富社会信号可能导致信任被误判,从而引发过度依赖或不必要的怀疑。这种误判可能会削弱沟通和团队表现,因此理解并解决这些挑战在现实世界的人机协作中至关重要。

团队信任在人类-AI协作中起着关键作用,影响成员对AI的接受度、合作意愿和任务分配策略。信任可以促进信息共享和协作意图,并作为缓解沟通不良后果的缓冲机制。然而,误解可能会破坏团队信任的建立。具体而言,信息遗漏通常更为透明,易于识别和纠正,因此对信任的影响较小。相反,模糊表达由于其隐蔽性和解释复杂性,可能导致对他人(包括AI系统)能力或意图的怀疑。在人类-AI团队中,模糊误解进一步加剧了人与AI之间的信任挑战,从而影响沟通和协作。随着AI在团队工作流程中的嵌入,信任机制变得越来越关键。研究表明,对AI的信任直接影响其建议被接受和整合的程度。此外,误解类型不仅影响人际信任,还影响对AI代理的信任,从而影响沟通效率和团队表现。然而,明确解释误解类型如何通过信任影响结果的实证模型仍然稀缺。

尽管大多数现有研究将信任视为一种社会和认知结构,但最近的理论发展强调了其进化起源,尤其是在新的技术环境中。从进化角度来看,信任不仅是一种认知评估,也是一种由重复面对面互动塑造的适应性机制。在祖先环境中,个体依赖于非语言线索,如面部表情、手势和语气,来调整信任并促进合作。AI驱动的沟通中缺乏这些线索,导致信任的自然校准受到挑战,从而使得误解在人类-AI团队中更难解决。这表明团队成员无法依赖已有的社会信号来修复和调整信任。

因此,我们提出以下假设:

假设1a:误解类型显著影响沟通效率。与模糊表达相比,信息遗漏更容易被识别和纠正,从而提升沟通效率。

假设1b:团队表现受到误解类型的影响。与模糊表达相比,信息遗漏对团队表现的负面影响较小。

团队信任作为中介变量,起着关键作用。信息遗漏对信任的影响有限,而模糊表达则可能显著降低信任,因为其隐蔽性和解释复杂性。因此,我们提出以下假设:

假设2a:团队信任中介误解类型与沟通效率之间的关系。

假设2b:团队信任中介误解类型与团队表现之间的关系。

同伴类型作为调节变量,对团队沟通和协作结果产生显著影响。在人类-人类团队中,成员通过共享社会规范和过往经验,能够更有效地识别和解决信息遗漏,从而减轻其对沟通的负面影响。在人类-AI团队中,成员通常对AI同伴有较低的社会期望,并倾向于主动澄清或补充缺失信息。然而,当处理模糊表达时,AI在理解非结构化或细腻输入方面的局限性更加明显。在这种情况下,团队成员更可能将沟通失败归因于AI的认知限制,从而产生归因偏差。这种偏差不仅降低了沟通效率,还削弱了信任。因此,我们提出以下假设:

假设3a:误解类型与沟通效率之间的关系受到同伴类型的影响,人类-AI团队中这种影响更为显著。

假设3b:误解类型对团队表现的影响受到同伴类型调节;在人类-AI团队中,模糊误解具有更强的负面影响。

假设3c:误解类型对团队信任的影响受到同伴类型调节;在人类-AI团队中,模糊误解更容易削弱信任。

同伴类型还调节了信任在误解类型与后续结果之间的中介机制。研究表明,信任在误解与沟通效率和团队表现之间的关系中起着核心中介作用。然而,这种中介效应在不同情境中的强度并不一致,并且受到同伴类型显著调节。在人类-AI团队中,模糊误解更可能被归因于AI的限制,从而导致信任下降,加剧对沟通和表现的负面影响。相反,信息遗漏通常被积极应对,对信任的影响较小。在人类-人类团队中,无论误解类型如何,信任通常可以通过社会规范和相互理解得到恢复,从而减轻对团队结果的负面影响。基于这些见解,我们提出以下假设:

假设4:团队信任在误解类型与沟通效率和团队表现之间的关系中起中介作用,且这一中介效应受到同伴类型调节。

研究框架的概念模型如图1所示。

通过本研究,我们系统地分析了团队类型(人类-人类 vs. 人类-AI)和误解类型(信息遗漏 vs. 模糊表达)对团队沟通效率、表现和信任的影响。研究还探讨了同伴类型在其中的调节作用,以及信任的中介机制。实验结果表明,误解类型显著影响沟通效率和团队表现,信息遗漏更容易被识别和纠正,因此其对表现和沟通的负面影响较小。这些发现与先前研究一致,即信息遗漏通常更为显著,因此更容易通过澄清策略被识别和解决。相比之下,模糊表达可能导致误解和长期的沟通障碍,因为团队成员可能无法立即识别误解。这与认为模糊误解由于其隐蔽性和识别和纠正所需认知负担更大,因此更难解决的观点一致。

在人类-AI团队中,模糊误解对沟通和表现的影响尤为显著。这一结果与进化心理学的近期发现一致,即社会学习和意义构建的有效性依赖于进化出的认知机制,这些机制可能在技术环境中被干扰或削弱。这表明AI生成的沟通中的模糊性提出了独特的挑战,进一步强调了AI系统需要包含误解检测和解决机制的重要性。

在实践中,本研究为AI开发者和组织领导者提供了可行的建议。对于AI设计师,将误解检测和澄清功能纳入系统架构至关重要。例如,当检测到用户输入的多种解释时,AI系统应发起澄清问题,而不是提供可能误导性的回应。界面设计可以包括“误解反馈”按钮,使用户能够标记模糊输出,支持系统的持续优化。在非结构化任务中,AI代理应从历史沟通数据中学习,以适应个体的语言偏好,减少未来的误解。对于管理者,应建立标准化的沟通协议和澄清程序,当AI被引入团队时。专注于人类-AI协作的定期培训可以提高团队成员识别和处理误解的能力。信任恢复机制,如在沟通障碍后进行回顾会议,可用于防止问题升级并促进团队信任的修复。组织还应投资于AI素养培训,帮助员工更好地理解AI的工作原理,包括其局限性和决策逻辑。这些措施对于减少因误解引发的沟通障碍和信任危机至关重要,最终提高人类-AI混合团队的效率和效果,支持智能组织转型的更广泛目标。

尽管本研究作出了重要贡献,但也存在一些限制需要考虑。首先,实验任务集中在天文学相关的科学传播上,由于其特定性质,可能限制了研究结果在其他协作领域的普适性。未来研究应通过在各种团队情境中进行复制和扩展,以增强外部效度。其次,本研究中使用的AI代理在智能水平和沟通风格方面是预设和脚本化的。虽然这种方法有助于控制实验条件,但它可能无法完全反映真实世界AI系统的动态和多模态交互行为。未来研究应鼓励使用实时AI代理或沉浸式技术,如虚拟现实,以创建更丰富和更符合实际的交互场景,并进一步探讨AI行为复杂性如何影响团队信任和沟通过程。第三,个体差异,如AI素养、认知偏好和过往经验,值得进一步探索,以理解这些因素如何与情境变量相互作用,塑造信任动态和误解管理。未来工作应系统研究这些机制,并将AI设计和信任构建策略结合起来,以推动更全面的人机协作理论。此外,应解决AI透明度、公平性和问责性问题,以减少潜在的算法偏见和信任危机。第四,信任仅在任务完成后进行测量,这可能引发时间先后顺序的问题,因为信任被建模为过程中发生事件的中介。这种后测方法被选择以减少干扰,并捕捉基于整个协作经历的参与者整体感知。然而,未来研究应考虑使用多个时间点的测量或过程追踪方法,以更好地捕捉信任在互动中的动态发展。最后,本研究的样本年龄范围较窄,这可能限制了研究结果的普遍性。未来研究应招募来自更广泛年龄群体的参与者,以检验年龄是否调节观察到的效果。

本研究基于进化心理学和信任理论,采用2×2的实验设计,系统探讨了团队类型(人类-人类 vs. 人类-AI)和误解类型(信息遗漏 vs. 模糊表达)如何相互作用以塑造沟通效率、团队表现和信任。结果表明,模糊误解显著削弱了人类-AI团队中的信任和协作,主要由于AI的表达有限和透明度不足。团队信任作为关键中介因素,其影响在人类-AI环境中尤为明显。这些发现扩展了信任理论,突出了缺乏社会信号和误解类型在AI团队中的调节作用。此外,研究还表明,不同类型的误解对团队的影响因团队构成而异,表明整合AI的团队需要特定策略来处理模糊性并促进清晰沟通。从进化角度来看,信任作为一种适应性机制,用于管理不确定性并促进合作,而AI驱动的互动中缺乏社会信号会破坏这一机制,导致信任误判。在实践中,组织应提高AI的透明度,提供反馈机制,并模拟社会信号,以促进信任并改善团队结果。本研究加深了我们对人类-AI协作背后心理和关系动态的理解,并为在日益数字化的工作环境中优化团队表现提供了实证依据的建议。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号