《Scientific Reports》:Low perceived warmth of AI agents reduces trust towards them
编辑推荐:
【编辑推荐】人工智能(AI)作为新型社会主体,其人机信任机制亟待阐明。本研究以美国代表性居民为样本(N=400),在信任博弈中操控受托人(人类与AI)的温度与能力维度,探究社会感知基本维度如何影响对人/对AI的信任差异。结果表明,AI受托人总体信任度低于人类,尤其在低温度条件下更为显著。这提示温度是构建可信赖AI系统的关键设计要素。
在数字化浪潮奔涌的今天,人工智能(Artificial Intelligence, AI)已不再是科幻作品的专属,它们正以虚拟助手、客服、乃至决策伙伴等形态,悄然嵌入我们的社会与经济系统,成为一类全新的“社会行动者”。然而,与人类同事或伙伴不同,我们与这些硅基智能之间的互动,始终笼罩着一层微妙的不确定性面纱。人类社会的顺畅运转,基石在于信任。那么,当我们的合作伙伴从血肉之躯变为代码与算法,信任将如何产生?是哪些因素在背后默默操控着我们对AI的评判与托付?这不仅是人机交互(Human-AI Interaction)领域的核心学术命题,更是所有AI系统设计者无法回避的实践挑战:如何设计出真正值得信赖的AI?
为了揭开这层面纱,一项研究将目光投向了社会心理学中经典的双维模型——社会感知(Social Perception)的温度(warmth,与友好、善意相关)与能力(competence,与效能、技能相关)。长久以来,这两个维度被视为我们评判他人、形成印象的基石。那么,这套用于衡量同类的“标尺”,是否也同样适用于我们眼中的AI?更重要的是,AI在这把“标尺”上的表现,会如何深刻地影响我们是否愿意对其“投下信任的一票”?
发表在《Scientific Reports》上的这项研究,正是为了系统性地回答上述问题。研究团队没有停留在理论推演,而是设计了一项严谨的行为实验。他们招募了400名美国居民,确保样本具有人口统计学上的代表性,以提升研究结论的普遍性。在实验中,参与者扮演“投资者”的角色,与不同的“受托人”进行经典的信任博弈(Trust Game)。这些“受托人”的身份是关键变量:有些被明确标识为“人类”,有些则被标识为“AI代理”。更重要的是,研究者精细地操控了每位“受托人”在温度与能力两个维度的表现,从而创造出“高温度-高能力”、“高温度-低能力”、“低温度-高能力”、“低温度-低能力”等不同组合的虚拟角色。通过测量参与者在博弈中愿意投资给不同受托人的金额,研究者得以量化“信任”这一抽象概念,并精确分析身份(人类 vs. AI)和感知特质(温度与能力)如何共同塑造信任决策。
为开展这项研究,研究人员主要采用了问卷调查研究法与实验行为经济学范式。研究基于一个具有代表性的美国居民样本(N=400)。核心方法是在线实施的信任博弈,通过系统性地操控受托人(分为人类和AI两类)的感知温度与能力水平,并测量参与者相应的信任行为(以投资金额衡量),从而量化社会感知维度对人机信任差异的影响。
研究结果
AI受托人总体上面临“信任赤字”
数据分析揭示了一个清晰的总体趋势:无论感知特质如何组合,AI受托人获得的信任投资,显著低于人类受托人。这表明,在当前的社会认知背景下,AI作为一种新型社会主体,在获取人类信任的起跑线上就处于不利地位,存在一种固有的“信任赤字”。
“温度”是决定人机信任鸿沟宽窄的关键阀门
研究最核心的发现在于,身份(人类/AI)与感知温度之间存在显著的交互作用。具体而言:
- •
在“低温度”条件下,AI与人类受托人之间的信任差距被急剧放大。当一个AI被感知为冷漠、不友好时,它遭受的信任惩罚远超过一个同样被感知为冷漠的人类。
- •
相比之下,在“高温度”条件下,AI与人类受托人之间的信任差距虽然依然存在,但显著缩小。一个被感知为温暖、善意的AI,能够部分弥合因其“非人”身份带来的信任鸿沟。
“能力”的影响力相对有限且模式不同
与温度的强效调节作用形成对比,感知“能力”维度的效应模式有所不同。研究发现,能力对信任有主效应(高能力者通常获得更多信任),但其与受托人身份(人类/AI)的交互作用并不像温度那样显著。这意味着,无论是人类还是AI,高能力通常都能带来更多信任,但能力的高低并未显著改变人类与AI之间信任差距的大小。换言之,提升AI的能力固然能增加对其的信任,但无法像提升其“温度”那样,有效缓解因其AI身份导致的信任不足。
结论与讨论
本研究通过精巧的实验设计,实证了社会感知的基本维度,特别是“温度”,在塑造人机信任中扮演着至关重要的角色。结论明确指出:人工智能代理普遍面临比人类更低的信任水平,而这种“信任鸿沟”在代理被感知为缺乏温暖(低温度)时会变得尤为深壑。
这一发现具有多重重要意义。首先,在理论层面,它将经典的社会认知框架成功应用于新兴的人机交互领域,证实了人类在评估AI时,会不自觉地调用与评估人类相似的认知图式,尤其是对“意图”和“友善度”(即温度)的评估,这可能比对其“技能”(即能力)的评估更能影响深层的信任决策。这挑战了单纯强调AI性能与准确性的传统设计思路。
其次,在实践与应用层面,研究为“可信赖AI(Trustworthy AI)”的设计提供了极具价值的指引。它强烈提示,为了构建更易被人类接受和信赖的AI系统,开发者和设计者不能只专注于提升算法的效率、准确性与能力(competence)。相反,必须将“塑造温暖的感知”提升到战略高度。这意味着AI的交互设计(如对话语调、响应方式、解释风格)、外观呈现乃至决策透明度,都需要有意识地传递出友好、善意、为人类利益考虑的“温度”信号。例如,一个在出错时能表达歉意、解释原因并给出后续建议的客服AI,可能比一个仅仅高效准确地报错但态度冰冷的AI,更能维持用户的长期信任。
总之,这项研究犹如一盏明灯,照亮了人机信任构建道路上曾被忽略的关键岔口。它告诉我们,要让AI真正融入人类社会,成为可靠的伙伴,我们或许需要投入与优化算法同等甚至更多的精力,去为这些数字智能“赋予温度”。因为最终,信任不仅关乎机器“能做什么”,更关乎我们感觉它“愿为何人”。