球形Transformer(STF):一种适用于大脑皮层表面多任务分析的创新性非欧几里得空间注意力模型

【字体: 时间:2025年07月17日 来源:NeuroImage 4.7

编辑推荐:

  针对传统Transformer难以处理大脑皮层表面非欧几里得数据的问题,研究人员提出球形Transformer(STF),通过重叠分块和双层级自注意力机制,在认知预测(RMSE降低0.02-0.03)、皮层属性图预测(MRE提升2.4%)和分区任务(Dice系数达89.11%)中均超越现有方法,为脑科学AI分析提供通用框架。

  

在脑科学和医学影像分析领域,大脑皮层表面的复杂几何结构一直是算法设计的重大挑战。传统卷积神经网络(CNN)受限于局部感受野,而视觉Transformer(ViT)虽能捕捉长程依赖,却难以处理皮层表面这种具有球形拓扑结构的非欧几里得数据。更棘手的是,皮层表面的三角形网格表示和顶点级预测任务要求模型必须兼顾全局特征整合与局部细节保留——这正是现有方法如UGSCNN和SUNet未能完美解决的痛点。

针对这一难题,国内某研究机构(根据CRediT声明推断为中国机构,但原文未明确标注)的研究团队创新性地提出了球形Transformer(Spherical Transformer, STF)。这项发表在《NeuroImage》的研究通过三个关键突破实现了技术跃迁:首先,利用二十面体细分将皮层表面映射为标准球体并创建重叠分块;其次,设计"块-顶点"双层级token化策略,在块间执行全局自注意力(MSA)而在块内实施局部自注意力;最后,针对纵向数据开发时空自注意力(ST-SA)模块,通过时间位置编码整合发育轨迹。这些创新使STF在保持计算效率(复杂度仅为全局顶点注意力的7.14%)的同时,成为首个能统一处理表面级和顶点级任务的Transformer框架。

关键技术方法包括:1)基于二十面体细分的重叠表面分块(h=1的2-ring邻域);2)多尺度特征金字塔(通道数Cl={16,32,64,128,256});3)时空自注意力中的可学习时间编码;4)使用110名婴儿的纵向MRI数据(NDAR 2384/4314)和Mindboggle-101成人数据集进行5折交叉验证。

表面级认知预测

通过将出生时的皮层形态特征与2岁时的Mullen量表评分关联,STF在视觉接收量表(VRS)预测中取得35.8%的Pearson相关系数(PCC),显著优于UGSCNN(28.7%)和SUNet(30.9%)。Grad-CAM可视化显示模型能自动聚焦于脑岛(Insular cortex)等语言相关区域,与神经发育规律高度吻合。

顶点级属性预测

在预测2岁时的皮层厚度和脑沟深度时,STF将平均相对误差(MRE)降至10.35%(厚度)和16.71%(脑沟),较最优基线提升2.4%。误差热图显示其在中央沟等复杂区域的预测精度提升尤为显著。

皮层分区任务

采用Mindboggle-101数据集时,STF以89.11%的Dice系数刷新纪录,对小区域如扣带回后部(区域2)的分割精度提升3.5%。旋转鲁棒性测试表明,其在R→A(旋转训练/对齐测试)场景下仍保持89.37%的稳定性能。

纵向数据分析

时空自注意力(ST-SA)模块通过融合0-1岁的时序特征,将2岁认知预测的RMSE降至0.147,较单时间点分析(0.154)显著优化。MLP时间编码的设计为处理不规则采样数据提供了扩展可能。

这项研究的里程碑意义在于:1)首次在球形流形上实现全局-局部自注意力的协同优化,解决了非欧几里得空间的长程建模难题;2)通过重叠分块和顶点位置编码(Eposvertex),在不增加计算负担(Op≈0.0714Og)的前提下保留亚毫米级皮层细节;3)时空自注意力机制为发育性脑研究提供了端到端分析工具。未来,通过整合多模态特征(如fMRI)和扩展连续时间编码,STF框架有望在阿尔茨海默病早期预测等临床场景发挥更大价值。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号