
-
生物通官微
陪你抓住生命科技
跳动的脉搏
早期视觉皮层对语义声音类别的解码:跨模态反馈的精细表征研究
【字体: 大 中 小 】 时间:2025年08月03日 来源:Cerebral Cortex 2.9
编辑推荐:
本研究通过功能磁共振成像(fMRI)和多体素模式分析(MVPA)技术,揭示了盲folded健康受试者的早期视觉皮层(V1-V3)能够表征听觉输入的语义信息。研究人员发现,早期视觉皮层不仅能区分生物与非生物声音的超级类别,还能解码更精细的人类、动物、交通工具和物体声音类别,其中人类声音表征最显著。该发现突破了早期视觉皮层仅处理视觉特征的认知,为跨模态预测编码理论提供了新证据,对理解大脑多感官整合机制具有重要意义。
在传统认知中,早期视觉皮层(V1-V3)是专门处理视觉特征的"专属区域"。然而近年研究发现,这个区域在闭眼或盲人状态下竟能响应声音刺激——这就像发现图书馆的儿童阅览区突然开始播放交响乐。这种反常现象引出一个关键问题:从听觉传递到视觉皮层的反馈信号,究竟携带什么级别的信息?是简单的声学特征,还是包含语义内容的抽象表征?
伦敦大学伯贝克学院和弗里堡大学的研究团队在《Cerebral Cortex》发表的研究给出了突破性答案。他们设计精巧的实验让受试者在完全隔绝视觉输入的情况下,聆听36种分层组织的自然声音(从超级类别的生物/非生物,到具体的人类脚步声、动物叫声等),同时用7T fMRI扫描仪捕捉神经活动。
研究采用三个关键技术:1) 个体化视网膜拓扑映射精确定位V1-V3区域;2) 多体素模式分析(MVPA)解码不同语义类别的声音表征;3) 全脑搜索light分析验证特异性激活脑区。为控制变量,所有声音均经过振幅归一化和频谱均衡处理,并通过行为实验确保90.8%的识别准确率。
MVPA揭示层级式声音表征
研究发现早期视觉皮层存在层级式声音解码能力:V1-V2可区分生物与非生物声音(准确率显著高于随机水平,效应量d=0.93),V2-V3进一步区分人类、动物、交通工具和物体四类声音(P<0.01)。特别值得注意的是,包含人类声音的配对(如人类-动物)在V2表现出更强的解码准确性,暗示大脑对人类相关刺激存在特殊处理机制。
全脑分析验证多感官网络
搜索light分析显示,除听觉皮层外,颞中回(MTG)、后颞上沟(pSTS)等多感官整合区域也参与声音分类。有趣的是,通常负责物体识别的外侧枕叶复合体(LOC)在纯听觉条件下仍能区分声音类别,挑战了该区域仅处理视觉输入的传统观点。
表征机制的非视觉本质
三个证据表明解码成功非视觉表象驱动:1) 无单变量激活差异;2) 视觉表象问卷(VVIQ)显示表象生动度与解码准确度负相关;3) 声学特征分析未发现类别间系统性差异。这支持了"语义信息通过反馈通路直接传递"的假设。
这项研究从根本上改变了我们对早期视觉皮层功能的认知。就像发现电脑显卡突然能处理音频数据,证明这个区域不仅是视觉特征的"投影仪",更是多模态信息的"预测引擎"。当听到汽车鸣笛时,视觉皮层可能正在构建汽车的视觉表征,为即将到来的视觉输入做准备。这种预测机制对理解自闭症、精神分裂症等疾病的感知异常具有重要启示,也为开发新型跨模态康复训练提供了理论依据。
生物通微信公众号
知名企业招聘