基于大语言模型揭示L1与L2阅读者神经计算机制的共性与差异

【字体: 时间:2025年07月12日 来源:npj Science of Learning 3.6

编辑推荐:

  本研究通过结合fMRI与大语言模型(GPT-2),首次系统探究了母语(L1)与二语(L2)阅读者在自然阅读任务中的神经计算机制。研究发现L1/L2群体在语言相关脑区(如左侧IFG、PTG)与GPT-2模型具有可比性的大脑-模型对齐(Runique),证实了上下文嵌入(contextual embeddings)的预测优势;同时揭示L2读者需额外依赖警觉网络(alerting network)和语言优势度(language dominance)的补偿机制。该成果为双语认知的神经基础研究提供了新范式,发表于《npj Science of Learning》。

  

在全球化时代,超过半数人口使用第二语言进行交流,但关于双语者如何实现与母语者相当的阅读能力,科学界长期存在争议。传统观点认为二语学习者(L2)的神经机制存在"根本性差异",而新兴理论则强调神经可塑性带来的趋同性。这一争论的核心困境在于缺乏能够同时捕捉语言处理共性与个体差异的计算模型。随着大语言模型(LLM)在认知神经科学中的应用,研究者发现GPT等模型与人类大脑在语言处理上存在"共享计算原则",但这一突破性进展此前仅局限于母语人群研究。

香港理工大学的研究团队通过创新性的跨学科研究设计,首次将LLM的预测能力扩展到双语研究领域。他们采用自然阅读范式,同步记录51名英语母语者(L1)和55名汉英双语者(L2)的功能磁共振成像(fMRI)数据与眼动特征,并构建基于GPT-2的编码模型量化大脑-模型对齐(model-brain alignment)。研究发现发表在《npj Science of Learning》的这项成果,不仅验证了LLM作为认知模型的普适性,更揭示了双语认知的神经可塑性机制。

关键技术方法包括:(1)采用 fixation-related fMRI 范式同步采集自定速阅读任务中的BOLD信号与眼动数据;(2)从GPT-2第8层提取768维上下文嵌入(contextual embeddings)构建个体化编码模型;(3)使用1000脑区图谱进行全脑分析,重点考察12个语言相关脑区(如IFG、PTG)和6个视觉脑区;(4)通过留一交叉验证计算模型预测脑活动与实际脑活动的Pearson相关系数(R值);(5)结合Gray阅读测试、PPVT词汇量测试和注意力网络测试(ANT)等多维行为评估。

【L2和L1读者显示相当的阅读结果】

尽管L2读者需要更长的总阅读时间(t(104)=-4.81)和更多注视次数(t(104)=-2.92),但两组在阅读理解准确率上无显著差异(t(102)=1.68)。行为测试显示L2组词汇量显著较低(t(94)=11.64),但警觉网络(alerting)等注意力指标与L1组相当,这为后续神经机制分析提供了重要前提。

【上下文嵌入在L1和L2读者中相似地捕捉大脑反应】

全脑分析发现两组在双侧低级视觉区和高级语言区(如precuneus/PCC、LPFC)均呈现显著对齐(图2a)。特别在左侧颞极(ATG)和后颞叶(PTG)等语言关键区,Rcontextual值无组间差异(p>0.001),证实GPT-2能等效预测L1/L2的神经活动模式。

【嵌入上下文特定含义的模型显示最佳对齐】

比较分析表明,仅含上下文嵌入的模型(Rcontextual)与加入词性标签(Rcontextual_POS)或静态嵌入(Rcontextual_static)的模型预测力相当(图3a-b)。独特贡献分析(Runique)进一步证实上下文嵌入在双侧前额叶-顶叶网络中的特异性解释力(图3c),且该效应在两组间无差异(p>0.001)。

【模型-大脑对齐预测阅读准确性】

左侧角回(AG:r=0.33)和后颞叶(PTG:r=0.36)的对齐程度与阅读理解准确率显著相关(图4a)。回归模型证实左侧PTG的神经预测信号能有效预测个体阅读得分(r=0.30),凸显语言区对齐的行为意义。

【专业知识对模型-大脑对齐的影响存在群体差异】

语言能力模型(Ling model)显示,词汇量正向预测L1读者左侧IFG的对齐程度(β=0.42),但该效应在L2组不显著。而包含警觉能力的LingANT模型对L2组左侧MFG对齐有显著预测(β=0.38),表明L2处理需要额外认知资源补偿(图5c-d)。

【语言优势度与专业知识的交互作用】

全模型分析发现,L2读者的语言优势度(language dominance)与词汇量存在显著交互效应:当词汇量较低时,语言优势度对左侧IFG对齐的促进作用更明显(β=-0.31),揭示双语经验对神经补偿机制的调节作用(图6b)。

这项研究通过LLM与神经科学的深度融合,为双语认知研究带来三大突破:首先,证实GPT-2的上下文嵌入能等效捕捉L1/L2读者的神经表征,支持"共享计算原则"的跨群体适用性;其次,发现左侧颞顶语言网络的对齐程度可预测阅读表现,为评估二语能力提供客观神经指标;最后,揭示L2处理依赖警觉网络和语言经验的动态补偿,为双语教育中的个体化干预提供理论依据。该成果不仅推动LLM在认知建模中的应用边界,更通过"大脑-算法"对话的新范式,为理解人类语言系统的可塑性本质开辟了新途径。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号