
-
生物通官微
陪你抓住生命科技
跳动的脉搏
知识线索对人类起源的提示促进用户与聊天机器人交互中的自我表露
【字体: 大 中 小 】 时间:2025年06月21日 来源:Computers in Human Behavior: Artificial Humans
编辑推荐:
本研究针对聊天机器人在心理健康支持中面临的"共情鸿沟"问题,通过双盲实验设计探讨了身份线索对自我表露(self-disclosure)的影响。研究人员采用被试内设计,让22名参与者分别与以人类身份(Sam)和机器人身份(Chatbot D12)呈现的相同聊天机器人交互。结果显示:参与者向"人类身份"机器人披露更多信息(字数多28%),且感知其更具能动性(agency)和体验性(experience);但"机器人身份"反而获得更高友好度评价。该发现为数字心理健康干预中的人机交互设计提供了重要启示,揭示了身份线索对用户行为与认知的双重影响机制。
在数字心理健康服务需求激增的背景下,聊天机器人作为新兴的自我管理工具,正在商业和医疗场景中快速普及。全球已有超过30万个Facebook聊天机器人和1万款心理健康应用程序,它们被用于情绪追踪、认知行为治疗(CBT)和行为分析等多个领域。然而这些系统面临核心矛盾:虽然用户看重其"无评判"特性从而更坦诚,但现有技术缺乏真正的情感智能(emotional intelligence)和共情能力,导致出现"共情鸿沟"(empathy gap)——当涉及抽象情感和不可预测的人类对话时,强大的语言能力就会失效。这种矛盾引发关键争议:聊天机器人究竟是促进还是阻碍了自我表露(self-disclosure)?这个涉及治疗联盟(therapeutic alignment)构建的核心问题,直接关系到数字心理健康干预的有效性。
为解答这个问题,国外研究团队设计了一项精巧的被试内实验。研究招募22名23-62岁的英语母语者,通过社交媒体征集并采用G*Power软件计算确保统计效力。实验采用完全相同的聊天机器人程序,仅通过身份线索(知识 cues)进行区分:一组以人类研究助理"Sam"身份呈现并加入人工响应延迟;另一组明确标注为"Chatbot D12"并即时响应。通过DialogFlow平台构建对话流,Qualtrics集成实验流程,采用VADER(Valence Aware Dictionary and sEntiment Reasoner)进行情感分析,测量主客观披露指标包括字数、情感度(sentimentality)和主观表露评分。
研究结果部分呈现了丰富发现。在"自我表露程度"方面,参与者向Sam披露更多内容(平均24.61 vs 19.19词),主观评分也更高(3.43 vs 2.93分),但Chatbot D12引发的情感表达更强烈(情感度0.30 vs 0.26)。"感知差异"方面,Sam在能动性(44.60 vs 39分)和体验性(30.05 vs 26.18分)评分显著更高,安慰反应(comforting responses)也更好(4.14 vs 4.0分);但Chatbot D12被认为更友好(3.62 vs 3.49分)。值得注意的是,尽管21/22参与者识破Sam实为机器人,这种"知识 cues"仍显著影响了行为。
讨论部分揭示了深刻的认知机制。结果支持媒体等同理论(Media Equation Theory)和"计算机作为社会行动者"(CASA)假说——即使明知对方是机器,人类仍会对社会线索做出自动响应。这种自动处理(automatic processing)解释了为何披露行为与主观评价一致增加;而需要控制处理(controlled processing)的信任和友好度评价则出现下降,反映出口碑期望与人工行为间的认知失调。这种双重机制对数字心理健康设计具有重要启示:虽然人类化线索能促进即时互动,但长期使用可能因"期望违背"降低信任。研究同时引发伦理思考:在治疗场景中使用此类"善意欺骗"需谨慎权衡即时效果与长期信任风险。
这项研究创新性地隔离了"知识 cues"的影响,为理解人机交互中的社会认知提供了新视角。其方法论贡献在于开发了可控制对话参数的实验框架(CART工具包),而实践价值则体现在为数字心理健康工具的设计提供了实证依据——通过优化身份呈现策略,可以在不依赖复杂技术的情况下提升交互质量。未来研究可探索不同敏感话题下的效应,并考察大型语言模型(LLM)时代这些发现的可推广性。这些见解不仅适用于心理健康领域,对电商客服、教育陪伴等需要建立信任的人机交互场景都具有参考价值。
生物通微信公众号
知名企业招聘