综述:整合大语言模型与主动推理理解阅读和阅读障碍中的眼动机制

【字体: 时间:2025年09月06日 来源:Piel CS0.1

编辑推荐:

  这篇创新性综述提出了一种结合大语言模型(LLM)和分层主动推理(Active Inference)的计算模型,通过BERT模型生成文本预测,利用主动推理框架模拟阅读时的眼动(saccades)机制,为理解阅读障碍(dyslexia)的预测处理异常提供了新视角。

  

引言

自然语言处理是人类的核心能力,涉及多层级脑区协同。近年研究表明,语言处理具有显著的层级预测特性,而大型语言模型(如BERT)的兴起为模拟这一过程提供了工具。然而,现有模型多被动接收信息,忽略了阅读过程中主动的眼动探索行为。本文提出的分层主动推理模型,首次将语言生成的预测能力与眼球运动的主动假设检验相结合。

方法

模型采用三层架构:

  1. 1.

    音节层级:处理字母到音节的转换

  2. 2.

    词汇层级:整合音节形成词汇表征

  3. 3.

    句子层级:通过BERT生成上下文预测

每个层级通过变分自由能最小化进行推断,眼动策略由预期自由能(EFE)指导,优先选择信息量最大的文本区域。模型创新性地引入"精确度权重"参数γ,通过调节该参数可模拟阅读障碍者的预测整合缺陷。

结果

单词阅读实验显示:

  • 控制模型(CM)准确率100%

  • 阅读障碍模型(DM)对8字母单词识别率降至97%

  • DM产生更多短距离眼跳(+38%)和回视(+210%)

句子阅读实验中:

  • DM对8词句子的识别概率显著降低

  • 噪声在句子层级的影响最为显著(p<0.001)

新词阅读时,模型自动切换至音节解码模式,验证了双通路理论中的非词汇通路。主题预知实验证实,提供句子主题信息可使眼跳次数减少27%。

讨论

该模型为阅读障碍的预测处理理论提供了计算证据:

  • 阅读困难源于先验信息整合不足

  • 层级噪声积累解释了长词/句的额外难度

  • 眼动异常是推断策略代偿的表现

模型可扩展性包括:整合视觉注意力广度、发展阅读习得模拟等。未来可通过参数个性化建立计算表型,为干预提供新思路。

展望

研究开辟了多个方向:

  1. 1.

    采用更先进的LLM提升语言预测

  2. 2.

    引入并行字母处理模块

  3. 3.

    扩展至叙事理解等高层认知

  4. 4.

    开发临床应用评估工具

这项跨学科研究展示了计算神经科学在理解复杂认知行为中的强大潜力,为阅读障碍的机制研究和干预设计提供了新颖框架。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号