《不信任的根源:探究基于人工智能的新闻聊天机器人如何影响用户的信任与认知》
《ACM Transactions on Interactive Intelligent Systems》:Feeds of Distrust: Investigating How AI-Powered News Chatbots Shape User Trust and Perceptions
【字体:
大
中
小
】
时间:2025年11月08日
来源:ACM Transactions on Interactive Intelligent Systems
编辑推荐:
本研究探讨生成式AI大模型(如ChatGPT)的互动性如何影响用户观点与信任。通过对比偏向性新闻文章与同向AI聊天机器人的交互效果,发现用户更易接受AI的叙事,尤其是立场一致时,凸显AI增强说服力的风险,对人机交互及民主社会构成挑战。
摘要
21世纪20年代初,随着生成式人工智能大型语言模型(如Chat-GPT)的兴起,人工智能迎来了一个新时代。这些AI聊天机器人通过让用户提问和查询更多信息,提供了一种交互式的服务。然而,以往的研究仅探讨了大型语言模型是否存在政治偏见或特定立场,而没有研究有偏见的模型如何影响用户的观点和信任。我们的研究通过一个具体场景填补了这一空白:用户先阅读在线新闻文章,然后与一个具有特定立场的交互式AI聊天机器人进行交流。有趣的是,参与者更倾向于接受聊天机器人的观点,而非持相反立场的新闻文章。当聊天机器人的立场与新闻内容一致时,他们更倾向于采纳其观点——这一现象在对照组(仅阅读新闻文章的参与者)中更为明显。我们的研究结果表明,AI聊天机器人所提供的交互式体验显著提升了其可信度和说服力,相比之下,传统新闻媒体的“静态”文章在这方面表现较弱。这引发了人们对AI可能引发思想灌输的担忧。我们分析了这一现象背后的原因,并探讨了有偏见的大型语言模型对人机交互(HCI)研究的影响,以及生成式人工智能可能通过信息战破坏民主制度的潜在风险。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号