
-
生物通官微
陪你抓住生命科技
跳动的脉搏
GenAI聊天机器人在人际关系干预中的应用:用户态度、接受度与潜力评估
【字体: 大 中 小 】 时间:2025年07月23日 来源:Computers in Human Behavior: Artificial Humans
编辑推荐:
研究人员针对公众对生成式AI(GENAI)聊天机器人在人际关系支持领域的态度空白,通过三项系列研究(焦点小组访谈、真实交互实验、量化问卷调查)系统评估了ChatGPT等工具作为关系干预手段的可行性。研究发现用户普遍认可其作为"可及的一线治疗(Accessible First-Line Treatment)"的价值,虽对"人工建议的人际连接(Artificial Advice for Human Connection)"存在争议,但实际交互显著降低使用预期努力(Effort Expectancy)并短期提升接受度,为数字心理健康工具的设计提供了重要实证依据。
在当代社会,人际关系困扰已成为影响身心健康的重要因素,但传统心理咨询面临资源短缺、费用高昂和病耻感等多重障碍。虽然数字健康干预被证明与传统面谈治疗等效,但全球范围内的采纳率始终低迷——这就像拥有特效药却打不开药瓶的困境。更令人担忧的是,现有针对夫妻关系的数字干预项目普遍存在高退出率问题,亟需寻找突破性的解决方案。
瑞士洛桑大学(University of Lausanne)的研究团队敏锐捕捉到生成式AI技术的革命性潜力,通过三项环环相扣的研究,首次系统评估了公众对GPT-4等先进聊天机器人作为关系干预工具的态度演变过程。这项发表在《Computers in Human Behavior: Artificial Humans》的创新研究,揭示了人机交互中微妙的情感动力学,为数字心理健康领域开辟了新视角。
研究团队采用混合方法设计:Study 1对30名瑞士青年开展焦点小组访谈,采用主题分析法(Thematic Analysis)挖掘深层态度;Study 2让20名英国成年人通过Zoom与定制化GPT-4聊天机器人"Amanda"进行真实关系咨询,记录交互体验;Study 3则采用随机对照试验,比较260名参与者使用聊天机器人与传统写作任务前后的态度变化,应用人工智能设备接受度模型(AIDUA)进行量化评估。
1. Study 1: 焦点小组
通过五组焦点访谈,年轻参与者将聊天机器人定位为处理"较简单问题"的首选渠道,赞赏其24/7的即时响应优势。但关于"人工共情"的辩论尤为激烈——有位参与者犀利指出:"共情很容易伪装,ChatGPT完全能模仿那些安抚性话术"。隐私与数据安全构成主要顾虑,部分人甚至联想到《黑镜》中的反乌托邦场景。值得注意的是,当匿名展示专家与AI的回复时,参与者常将人类专家的平庸建议误判为机器生成。
2. Study 2: 真实交互
实际体验彻底颠覆了预设认知。73%的参与者表示会再次使用聊天机器人,惊讶于其超越预期的"人性化"表现。一位自闭症参与者特别指出,这种非评判性交互为神经多样性群体(Neurodivergence)提供了安全的关系演练空间。文本交互的异步特性让用户获得难得的反思缓冲,有位女士感慨:"比起面谈时的手足无措,我能从容组织想法"。但AI刻板的"神经典型性(Neurotypical)"表达方式也暴露出适配障碍。
3. Study 3: 量化调查
数据验证了体验的转化力量:聊天机器人组表现出更低的预期努力(Effort Expectancy η2=0.097)和短期反对意见减少(Objection η2=0.025)。但两周后,除预期努力外其他差异消失,揭示态度改变的暂时性。探索性分析发现,男性、年轻群体及有数字工具使用经验者接受度更高,突显数字鸿沟的存在。
这项里程碑式研究证实,生成式AI可有效填补心理健康服务的"最后一英里"缺口。尤其值得注意的是,简单的使用暴露就能改善对数字干预的整体态度——这为破解采纳率困境提供了钥匙。但持续效应衰减也警示我们:技术易得,信任难建。未来开发需在个性化响应、文化适配和风险协议等方面深化探索,特别是在支持神经多样性群体方面,当前的"一刀切"交互模式可能适得其反。
研究团队创造性地将人工智能接受度理论(AIDUA)应用于敏感的关系咨询领域,发现传统模型中的"社会影响"因素在此情境下显著弱化,而"隐私-开放"的辩证关系成为核心考量。这种理论突破提示我们:数字健康工具的设计必须遵循"场景特异性"原则,在关系干预这种高度私密场域,算法透明度可能比社交推荐更重要。随着GPT-5等多模态模型的出现,如何平衡技术能力与伦理边界,将成为下一代研究的关键命题。
生物通微信公众号
知名企业招聘