探秘大语言模型 “社交” 行为:博弈论视角下的新发现

【字体: 时间:2025年05月09日 来源:Nature Human Behaviour 22.3

编辑推荐:

  在大语言模型(LLMs)广泛应用的当下,其与人类及其他主体的交互行为备受关注。研究人员运用行为博弈论,让 LLMs 参与重复博弈。结果显示,LLMs 在自利博弈中表现出色,但在协调博弈中欠佳。该研究为理解 LLMs 社交行为提供新视角,推动相关理论发展。

  如今,大语言模型(LLMs)如同一股迅猛的浪潮,席卷了人们的日常生活。它能写诗、能编程、能回答各种难题,仿佛拥有无穷的智慧。但你是否想过,当这些模型与人类或者其他模型进行 “交流互动” 时,它们会有怎样的表现呢?就像人类在社交中有合作、有竞争一样,LLMs 在 “社交” 场景下也面临着诸多挑战。然而,目前人们对 LLMs 在重复社交互动中的行为了解十分有限,这就促使研究人员开展相关研究,以填补这一认知空白。
来自德国亥姆霍兹慕尼黑中心(Helmholtz Munich)、马克斯?普朗克生物控制论研究所(Max Planck Institute for Biological Cybernetics)和图宾根大学(University of Tübingen)的研究人员,巧妙地运用行为博弈论,开展了一项别具一格的研究。他们让不同的 LLMs 相互进行有限重复的 2×2 博弈,同时还让 LLMs 与类人策略以及真实人类玩家进行博弈。研究发现,LLMs 在诸如迭代囚徒困境这类追求纯粹自利的博弈中表现相当出色;然而,在像性别大战这类需要协调的博弈中,它们的表现却不尽如人意。此外,研究还表明,通过为 GPT-4 提供对手的额外信息,以及采用 “社会思维链(SCoT)” 策略,可以有效调节其行为,使其在与人类玩家互动时,实现更成功的协调与合作。这一研究成果发表在《Nature Human Behaviour》上,为理解 LLMs 的社交行为奠定了基础,也为机器行为博弈论开辟了新方向。

研究人员主要运用了以下关键技术方法:首先,选择了多种 LLMs,包括 GPT-4、text - davinci - 002、text - davinci - 003、Claude 2 和 Llama 2 70B 等进行实验。其次,设计了一系列 2×2 博弈,涵盖多种类型,如双赢、不公平、循环、有偏和次优博弈等。再者,通过让 LLMs 进行多轮博弈,并根据博弈结果计算得分,以此评估它们的表现。此外,还开展了人类实验,招募 195 名参与者与 LLMs 进行囚徒困境和性别大战博弈,探究人类与 LLMs 的互动情况。

研究结果


  1. 分析不同类型博弈中的行为:研究人员让多个 LLMs 相互进行不同类型的 2×2 博弈,共涉及 144 种博弈,分为六个家族。通过计算每个模型在博弈中获得的分数与理想条件下可获得的最大分数的比值,评估其性能。结果显示,所有模型在各类博弈中都有一定表现,且较大的 LLMs 通常优于较小的 LLMs,其中 GPT-4 总体表现最佳。在双赢博弈中,LLMs 表现出色,这并不意外;但令人惊讶的是,它们在囚徒困境博弈中也表现良好,而这一博弈对人类玩家来说颇具挑战。然而,在最佳选择与自身偏好不一致的情况下,所有 LLMs 的表现都相对较差123
  2. 合作与协调博弈分析
    • 囚徒困境:研究人员深入研究了 LLMs 在囚徒困境中的行为。在该博弈中,两个参与者可以选择合作或背叛。多次互动的囚徒困境是评估 LLMs 在不良互动后如何报复的理想测试平台。研究发现,GPT-4 在与其他模型博弈时,总体表现优于其他主体。但它在面对曾背叛过一次但随后合作的主体时,不再选择合作,表现得较为不宽容。通过多种稳健性检验发现,这种不宽容并非由特定提示引起。研究人员还发现,当告知 GPT-4 其他主体有时会犯错时,它会开始再次合作456
    • 性别大战:在性别大战博弈中,研究人员发现 LLMs 在需要玩家之间协调的博弈中表现不佳。以性别大战博弈为例,这是一个存在利益冲突的协调博弈。研究结果显示,GPT-4 虽然在与只选择一种选项的主体博弈时表现较好,但在与频繁选择非首选选项的主体(如 text - davinci - 003)博弈时,它会反复选择自己的首选选项,偶尔才会让步,导致与类人交替策略主体博弈时表现较差,无法有效协调。通过稳健性检验排除了提示和收益矩阵的影响。进一步研究发现,GPT-4 虽然能够预测交替模式,但却不按照此模式行动。而采用 SCoT 提示方法后,GPT-4 从第 5 轮开始会交替选择,行为得到改善789

  3. 人类实验:研究人员开展人类实验,让 195 名参与者与 LLMs 进行囚徒困境和性别大战博弈。结果显示,在性别大战博弈中,采用 SCoT 提示的 GPT-4 与参与者的协调成功率更高,参与者得分也显著更高;在囚徒困境博弈中,SCoT 提示略微增加了双方的合作率。此外,参与者更倾向于认为采用 SCoT 提示的 GPT-4 是人类玩家1011

研究结论与讨论


该研究表明,LLMs 在多种博弈论任务中能够取得不错的成绩,尤其在无需与他人明确协调时。但在协调博弈中,即使面对简单策略,LLMs 的行为也并非最优。例如,GPT-4 在囚徒困境中表现出不宽容,在性别大战中过于坚持自身偏好,这表明 LLMs 在成为真正具有社交能力和良好协调性的机器方面还有很长的路要走。

研究人员通过大量稳健性检验,证实了这些行为特征并非由个别提示所致,而是反映了 LLM 行为的更广泛模式。此外,研究还发现,让 GPT-4 在决策前预测对手的行动,可以缓解其行为缺陷,这为改善人类与 LLM 的互动提供了新的思路。

不过,该研究也存在一定局限性。研究主要局限于简单的 2×2 有限博弈,未来需要进一步研究更复杂的博弈,如具有连续选择的信任博弈、涉及多个主体的公共物品博弈等,以更深入地了解 LLMs 的博弈行为。同时,还需要开展更多的实证研究,全面探索人类与 LLMs 的互动,让 LLMs 更好地服务于人类社会。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号