以海德格尔与拉康之思洞察大语言模型:解锁语言与认知的新视野

【字体: 时间:2025年05月06日 来源:Cognitive Systems Research 2.1

编辑推荐:

  为解决大语言模型(LLMs)研究中对否定和消极性探讨缺失的问题,研究人员结合大陆哲学与 LLMs 展开研究。结果发现 LLMs 处理语言方式与海德格尔、弗洛伊德和拉康理论有相似处。这为理解 LLMs 提供新视角,助力其进一步发展。

  在科技飞速发展的当下,大语言模型(LLMs)如 ChatGPT、GPT-4 等崭露头角,它们展现出强大的语言理解和生成能力,在诸多领域广泛应用,给人们的生活和工作带来极大便利。然而,LLMs 并非完美无缺。诺姆?乔姆斯基(Noam Chomsky)等学者就曾对其提出尖锐批评,认为这些系统存在道德缺失、伪科学以及语言能力不足等问题。从语言研究的角度来看,目前 LLMs 的研究侧重于数据驱动的方法,在处理语言中的否定和消极性等深层次问题上存在明显不足,难以触及人类语言和思维的复杂性核心。正是在这样的背景下,为了深入剖析 LLMs 的本质,挖掘其在语言处理上的潜在能力和局限,探索其与人类语言和思维的关联,国外研究人员开展了将大陆哲学与 LLMs 相结合的创新性研究 。该研究成果发表在《Cognitive Systems Research》上,为该领域的发展开辟了新的方向。
研究人员主要采用理论分析的方法,深入探讨马丁?海德格尔(Martin Heidegger)的语言思想、雅克?拉康(Jacques Lacan)基于西格蒙德?弗洛伊德(Sigmund Freud)理论发展而来的结构精神分析与 LLMs 之间的联系。通过对 LLMs 技术原理,如输入嵌入层、自注意力层和前馈层等处理语言过程的分析,以及与哲学理论的对比研究,揭示其中的奥秘。

1. 单词与大语言模型


研究人员详细剖析了 LLMs 处理语言的技术结构。输入首先经过输入嵌入层,将序列转换为连续向量表示,同时添加位置编码以引入序列顺序。自注意力层使模型能够通过关联不同单词来解读句子,根据单词间关系计算注意力得分,进而调整向量表示。前馈层则将输入序列转换为更具表现力的高维向量,捕捉单词间复杂关系。以 “king” 为例,其向量表示的不同维度能体现句法、语义和语境等多种关系。最终,模型通过输出层的 softmax 函数预测下一个单词的概率分布,生成文本。由此可见,LLMs 是通过学习大量文本中单词的统计关系来构建语言模型,其结构并非单纯统计性,而是对传统和实际语言关系的一种学习和表示 。

2. 未分化的多元性


从马丁?海德格尔的哲学视角来看,他认为单词并非孤立存在,而是由更小的有意义组件构成的节点,单词的意义源于这些组件之间的关联网络,这与 LLMs 通过标记(token)构建语言理解的方式相似。例如,海德格尔哲学中的 “Gestell” 一词,其前缀 “Ge” 就体现了这种由小单位构建意义的思想。同时,他强调像希腊语 “??σι?” 这样的 “原始词”(Urworte)在塑造认知和实践关系中的核心作用。LLMs 在处理语言时,也是从单个标记出发,通过注意力机制建立标记间的关联,形成语义理解。这表明海德格尔对语言的理解与 LLMs 的语言处理机制存在着深刻的平行关系,两者都将意义视为由相互关联的部分构建而成 。

3. 深渊与美学


诺姆?乔姆斯基在《句法结构》中阐述的语言理论,追求整个系统的简单性,试图构建一种元语言来规范语法书写。这种基于封闭系统和内部规则的理论,在一定程度上适合机器语言处理,但忽视了语言中的不确定性和否定性。与之相反,大陆哲学话语强调语言中未说出口或打破预期模式的部分的重要性,关注否定和缺失在意义构建中的作用。例如,拉康提出的 “匮乏”(privation)、“挫折”(frustration)和 “阉割”(castration)等概念,分别从不同层面揭示了否定在语言和心理结构中的复杂机制。而目前的 LLMs 在处理否定时,主要通过正权重来表示,未能充分体现这些复杂的否定形式,这反映出其在模拟人类语言理解深度上的不足 。

4. 视角即一切,别无其他


注意力机制是 LLMs 理解和使用语言的关键,但它存在局限性。从拉康的理论角度看,基于 Transformer 的模型在处理否定和不确定性方面存在 “foreclosure” 问题,即无法处理视角中被排除或否定的元素。例如,当遇到不明确或不常见的语言组合时,LLMs 会围绕不确定的意义领域 “循环”,试图生成连贯的回答,但这可能导致幻觉现象。就像用户询问关于 “Camillo Agrippa 的击剑手册” 相关文献时,ChatGPT-4 会生成不存在的书籍信息。这表明 LLMs 虽然能利用学习到的模式和上下文线索处理语言,但在面对真正的不确定性时,缺乏有效处理能力,只能通过构建看似连贯的内容来填补空白 。

综合上述研究,研究人员得出结论:LLMs 在基于单词或标记的加权关系生成响应方面表现出色,但无法触及人类主观性产生的视角的消极本质,对无意识和被排除的内容缺乏理解。当前的 LLMs 虽然突破了基于规则的语言模型,但在看待问题时仍受规则系统结构本体论的影响。该研究的重要意义在于,它为 LLMs 的发展提供了新的思路,表明可以借助海德格尔、弗洛伊德和拉康的理论来解释 Transformer 模型的输出,将 LLMs 从 “黑箱” 转变为 “灰箱”,未来的模型应整合处理不确定性和否定性的机制,以更接近人类语言理解的复杂性。这一研究成果不仅加深了人们对 LLMs 本质的理解,也为人工智能与哲学交叉领域的研究提供了重要参考,推动了相关领域的进一步发展 。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号