编辑推荐:
在生成式人工智能(GenAI)广泛应用的当下,其存在事实准确性不足等问题。研究人员开展了关于免责声明对 AI 生成内容认知影响的研究。结果发现免责声明对文本和作者认知影响较小。这为规范 AI 应用、提升用户认知提供了依据。
近年来,生成式人工智能(GenAI)尤其是大语言模型(LLMs)发展迅猛,广泛融入人们生活。无论是科研信息检索,还是日常问题解答,都能看到它们的身影。比如 ChatGPT,以其强大的语言生成能力,为人们提供了诸多便利。然而,这背后却隐藏着不小的隐患。LLMs 虽然语言能力出色,但在事实准确性方面却差强人意。在科学研究、健康医疗等对信息准确性要求极高的领域,错误信息可能引发严重后果。例如在健康信息方面,若提供错误的医疗建议,可能误导患者,危及健康。而且,人们对 AI 能力存在诸多误解,容易过度信赖,这也使得准确引导人们认知 AI 变得极为重要。在这样的背景下,来自莱布尼茨知识媒体研究所(Leibniz-Institut fuer Wissensmedien)的研究人员开展了一项意义重大的研究,该研究成果发表在《Computers in Human Behavior: Artificial Humans》上。
研究人员主要采用实验研究方法,通过设置不同的实验条件,探究不同因素对人们认知 AI 生成内容的影响。在样本选择上,研究涉及德国、美国等不同地区的人群,通过线上调查的方式收集数据。
研究结果
- 研究 1:探讨不同类型免责声明(基本、优势、局限)和信息呈现方式(中性、评价性)对文本评价的影响。结果显示,评价性信息呈现降低了可信度感知,而告知 AI 优势或局限对可信度影响不显著。同时发现参与者存在 “机器启发式” 思维,认为 AI 比人类作者更准确、更少偏见。在信息呈现方式方面,中性呈现时信息的可信度更高,且 AI 在中性信息呈现时被认为更智能,行为意向也更高。
- 研究 2:探究强调 AI 局限性和人机共同创作(co - authorship)之间的相互作用。结果表明,免责声明类型对消息可信度的主效应不明显,但存在显著的交互效应。在 AI 独自创作时,基本免责声明的消息可信度更高;而在人机共同创作时,强调 AI 局限性的免责声明下消息可信度更高。在源可信度方面,也有类似的交互效应,且 AI 独自创作且使用基本免责声明时,源可信度更高。然而,关于作者感知智力的假设未得到支持。
- 研究 3:增加了无信息框架和平衡信息(同时包含优势和局限)的免责声明条件,并进一步研究作者身份和免责声明类型的关系。结果显示,免责声明类型对消息可信度影响不大,对源可信度有较小影响,其中优势和局限免责声明都能提高源可信度。在拟人化感知方面,人机共同创作被认为更具拟人化,但在感知智力方面,未发现作者身份的显著影响。
研究结论与讨论
综合三项研究,免责声明对人们感知 AI 生成内容和 AI 作者的影响较小。尽管研究存在样本不均衡、文化差异等局限性,但仍有重要意义。它揭示了当前人们对 AI 存在过度信任的问题,即使提供 AI 的相关信息,也难以改变人们的认知。这提醒开发和应用 AI 的企业,应承担起更多教育用户的责任,让用户充分了解 AI 的能力和局限,避免盲目信任。同时,也为后续研究指明方向,未来应关注如何让免责声明更有效,以及不同文化背景、认知动机等因素对人们认知 AI 的影响。这项研究为规范 AI 应用、保障信息安全提供了理论依据,推动了人类与 AI 更合理、更安全的交互发展。