文化、语言与生成式语言模型

《Communications of the ACM》:Culture, Language, and Generative Language Models

【字体: 时间:2025年11月07日 来源:Communications of the ACM

编辑推荐:

  文章探讨生成式语言模型的技术原理与局限性,指出其基于概率生成内容而非真实知识。分析语言交流的规范性准则及文化差异,强调模型训练需结合本地文化,避免文化误译,并建议透明化处理以提升适用性。

  语言模型是通过观察语言使用的样本,学习语言数据的概率分布的一种统计技术。这些样本被编码到大量的概率参数中,从而形成对人类语言的某种表示。随着计算能力的提升和更完善的处理模型的设计,这种语言模型可以作为系统的一部分,用于生成特定目的的语言内容。当前的生成式语言模型的任务是,在给定一些相关的前文语境的情况下,输出最可能或最合理的字符串序列。这样的生成式语言模型本身并不是一个具有交流意图的智能体,而更像是对语言使用模式的一种观察和归纳,类似于词典和语法规则。然而,与传统的词典和语法规则不同的是,语言模型可以通过更少的专业知识进行查询和使用。

语言模型的概率分布具有巨大的变化性,而且在给定前文语境时,没有一种预先设定的、最合理、最恰当或最有用的路径可以被直接选择。因此,为了帮助管理这个决策空间,可以通过对模型表示进行调整,比如使用微调、指令训练和对齐训练等方法,以及通过精心挑选的人类反馈来评估不同输出的可接受性。这些额外的训练过程旨在使生成式语言模型能够生成适合特定任务和情境的内容,从而在语言中创造出一种“声音”。这种做法并不是一种价值中立的过程,而是对语言模型的生成能力施加了规范性的限制。

人类在语言使用方面有着长期的实践和训练,我们非常重视语言的有效性。教育机构也投入大量精力,教导我们遵循基于普遍美德的规则,这些规则在语言本身之外,往往具有较大的文化依赖性。当人类语言使用者遇到能够流畅、连贯地参与对话的对话语伴时,他们会认为这些对话语伴具有高度的智能和素养,并给予积极的评价。生成式语言模型能够产生令人印象深刻的流畅语言,因此人类用户容易对它们采取一种意图性的态度,认为它们是知识渊博、智能的对话伙伴。这种现象在整体上是令人遗憾的,因为它源于将语言能力与人类的其他优良品质混淆。

这种根深蒂固的人类本能使我们倾向于使用诸如“可信度”和“真实性”等术语来描述生成式语言模型的输出特性,并且会将某些输出标记为“幻觉”。然而,从当前的语言模型架构、表示方式和处理模型来看,典型的生成式语言模型的整个输出都是“幻觉”:它们的输出并不依赖于任何语言外部的信息。生成式语言模型的目标是根据其字符串片段的概率分布提供合理的字符串,而“真实”或“可信”并不是描述这种输出的合适概念。即使这些字符串在某些情况下与人类的经验相符,也不能改变这些标签对于语言模型本身并不适用的事实。

这种状况是合理的:如果一个系统的语言能力受到“真实性”这一概念的限制,那么它的应用范围就会变窄,使用价值也会降低。而人类的语言处理能力本身就可以包含欺骗、误导和不诚实等行为,无论是有意还是无意。这是语言和语言使用者的可取特性。语言本身并不具备“真实”或“不真实”的属性,而是通过语言使用者在特定语境下说出的话语才具有这种属性。

语言模型本身缺乏这种目的性。然而,基于语言模型构建的智能体可能被赋予特定的目的。例如,一个智能体可能通过自然语言与数据库进行交互,使用语言模型来管理语言交流过程。如果这样的智能体生成的内容与数据库中的信息不一致,那么讨论其“真实性”是有意义的。然而,这种真实性是整个系统的属性,而不是语言模型本身的属性。

人类的交流行为受到各种层级的规范和规则的制约,这些规范和规则在不同文化和情境下表现出显著的差异。有一些人类交流的原则是普遍认可的,例如大多数文化中的人们都会同意,我们的言语行为应当诚实、相关,并且顾及对方的感受;我们希望在表达自己时既信息丰富又在社交场合中保持适当的地位。然而,这些看似一致的目标在具体实现上却存在差异,不同文化对这些目标的权衡方式各不相同。在某些文化中,简洁可能被视为粗鲁,而在另一些文化中,冗长则可能被认为是一种压迫。请求在某些文化背景下可以以明确的命令形式表达,而在另一些文化中则需要以更间接的方式提出,例如通过礼貌的询问。

交流规范在交流过程中通常是隐含的,而不是显式的。参与者通常是在与他人的互动中逐渐习得这些规范。在第二语言学习者中,经常会出现由于忽视本地交流规范而导致的交流失误。语言使用者必须在粗鲁和过度殷勤之间找到平衡,因为任何一方的失误都会影响交流对象对语言使用者的信任度和可靠性评价。

交流规范在语言和非语言行为中得到体现,这些规范存在于所有语言的使用中。因此,一个语言模型在拥有足够训练数据的情况下,理论上是可以掌握这些规范的。然而,这些规范在生成阶段如何被具体实现,却取决于微调、对齐和指令训练等过程。这些过程并不是价值中立的,也不是普遍适用的,即使它们基于的抽象原则是普遍的。这显然也适用于偏见、安全、有害性以及可信度等概念,这些概念虽然被广泛接受,但在不同的情境、社区和文化中却有不同的体现。

尽管语言在不同人群、文化和个体之间存在一定的相似性,交流的目的在大多数情况下是相似的,但语言的表达方式却受到文化特定的规范和偏好的影响。语言中的许多特征都适合进行迁移学习,但这些特征如何在不同语言中具体体现,却受到文化特定的规范和偏好的制约。因此,如果我们希望语言模型能够更好地适应不同文化背景,就需要对这些文化特定的规范进行更深入的研究和分析。

目前,大多数用于指令微调的数据集都是从一种语言(通常是北美英语)翻译而来,而当前的翻译工具往往无法有效地调整这些数据集以适应不同文化的规范和敏感性,只是机械地进行直译,有时甚至会导致内容变得毫无意义。因此,这些指令集需要建立在特定文化的交流实践基础上。为了确保这些指令集的高质量,尤其是对于那些在大规模技术应用中被忽视的小语种社区,建立一个基于社区的、能够反映本地需求的指令集制定机制,是一项可持续的投资,其长期价值不容忽视。

总的来说,模型的微调和对齐过程是一种不可逆的操作,其执行往往受到文化或意识形态视角的影响。一个经过某种文化或意识形态调整的语言模型可能在更广泛的应用场景中变得不那么有用。因此,这些调整过程应当以透明和公开的方式进行,通过模型卡片等手段记录对齐和指令训练数据的来源。对于那些声称开放的模型,应当同时提供未对齐和已对齐的版本,以确保其在不同应用场景中的灵活性和适用性。

这种对模型的调整类似于语法和词汇的构建:一个无法描述粗鲁行为、言语攻击或咒骂的语法和词汇系统,既不具有一般性的实用性,也不具备足够的经验准确性。因此,为了使语言模型能够更好地适应不同的文化和情境,我们需要在构建这些模型时,充分考虑其在特定文化背景下的表现和影响。这不仅有助于提高语言模型的实用性,也能够减少因文化差异而导致的误解和不适。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号