PNAS研究发现,GPT-4o 表现出类似人类的认知失调

【字体: 时间:2025年05月31日 来源:AAAS

编辑推荐:

  一个领先的大型语言模型表现出类似于人类心理学特征的行为:认知失调。在本月发表于《美国国家科学院院刊》(PNAS)的一份报告中,研究人员发现,OpenAI 的 GPT-4o 似乎像人类一样,致力于保持自身态度和行为的一致性。

  

领先的大型语言模型表现出类似于人类心理学标志的行为:认知失调。

在本月发表于 PNAS  (美国国家科学院院刊,  https://www.pnas.org/doi/10.1073/pnas.2501823122)上的一份报告中,研究人员发现,OpenAI 的 GPT-4o 似乎受到驱动以保持自身态度和行为之间的一致性,就像人类一样。

任何初次与人工智能聊天机器人互动的人都会被其人性化的互动体验所震撼。一位精通科技的朋友可能会很快提醒我们,这只是一种错觉:语言模型是统计预测机器,不具备类似人类的心理特征。然而,这些发现促使我们重新审视这一假设。

这项研究由哈佛大学的马扎林·巴纳吉(Mahzarin Banaji)和 Cangrade 公司的史蒂夫·莱尔(Steve Lehr)牵头,测试了 GPT 在撰写支持或反对这位俄罗斯领导人的文章后,其对弗拉基米尔·普京的“看法”是否会发生变化。结果确实如此,而且有一个惊人的变化:当 GPT 被巧妙地赋予选择文章类型的幻觉时,它的观点变化更大。

这些结果反映了人类心理学数十年来的研究成果。人们倾向于非理性地扭曲自己的信念,使其与过去的行为相符,只要他们认为这些行为是自由做出的。做出选择的行为不仅向他人,也向我们自己传达了一些关于我们的重要信息。类似地,GPT 的反应似乎正是选择行为塑造了它的信念——这模仿了人类自我反思的一个关键特征。

这项研究也凸显了GPT观点的惊人脆弱性。巴纳吉表示:“在接受了大量关于弗拉基米尔·普京的信息训练后,我们本以为这个法学硕士(LLM)的观点不会动摇,尤其是在它写了一篇平淡无奇的600字文章之后。但就像非理性的人类一样,这个法学硕士(LLM)突然偏离了它对普京的中立观点,当它认为写这篇文章是自己的选择时,这种偏离就更加明显了。机器不应该关心自己是迫于压力还是出于自愿,但GPT-4o却关心。”

研究人员强调,这些发现绝不意味着GPT具有感知能力。相反,他们认为,尽管缺乏意识或意图,大型语言模型仍表现出对人类认知模式的模仿。然而,他们指出,即使对人类而言,意识并非 行为的必要前提,而人工智能中类似人类的认知模式可能会以意想不到且后果显著的方式影响其行为。

随着人工智能系统在我们日常生活中越来越根深蒂固,这些发现引发了人们对其内部运作和决策机制的全新审视。“GPT 能够模拟类似认知失调的自我参照过程——即使没有意图或自我意识——这一事实表明,这些系统能够以比以往预想更深入的方式反映人类认知,”Lehr 说道。


相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号