SpaSEG:基于无监督深度学习的空间转录组多任务分析新方法

【字体: 时间:2025年07月31日 来源:Genome Biology 9.4

编辑推荐:

  本研究针对空间转录组学(SRT)数据分析中的空间域识别、多切片整合、空间可变基因(SVG)检测及细胞间相互作用(CCI)推断等关键挑战,开发了基于卷积神经网络的无监督深度学习模型SpaSEG。该模型通过图像化张量转换和双损失函数优化,在10x Visium、Stereo-seq等多平台数据中展现出卓越的跨平台兼容性和计算效率,成功解析了浸润性导管癌(IDC)的瘤内异质性,为组织结构和病理生物学研究提供了创新工具。

  

在生命科学领域,空间转录组学(Spatially Resolved Transcriptomics, SRT)技术的快速发展为解析组织微环境中基因表达的空间异质性提供了全新视角。然而,如何从海量SRT数据中准确识别具有生物学意义的空间域、整合多切片信息、检测空间可变基因,并推断细胞间相互作用,成为当前面临的重要挑战。传统分析方法往往忽略空间连续性,或难以兼顾计算效率与准确性,特别是在处理高分辨率、大尺度SRT数据时表现局限。

针对这些问题,华大基因研究院(BGI Research)的研究团队开发了SpaSEG——一种基于卷积神经网络(CNN)的无监督深度学习模型。该研究通过创新性地将SRT数据转换为图像化张量,结合双损失函数优化策略,实现了对空间转录组数据的多任务分析,相关成果发表在《Genome Biology》期刊。

研究采用的主要技术方法包括:1) 跨平台SRT数据预处理与图像化张量转换;2) 基于CNN的无监督空间域识别框架,包含批量归一化层、卷积块和优化模块;3) 整合边缘强度损失函数的空间连续性保持算法;4) 基于细胞类型解卷积和配体-受体对的细胞相互作用推断方法。实验数据涵盖10x Visium人类背外侧前额叶皮层(DLPFC)、Stereo-seq小鼠全脑等多平台数据集。

空间域识别性能优越
在人类DLPFC 10x Visium数据中,SpaSEG以0.527±0.061的调整兰德指数(ARI)和0.643±0.021的标准化互信息(NMI)显著优于SpaGCN等6种对比方法。模型成功区分了6层神经元结构和白质区,边界清晰度显著提升。

跨平台兼容性验证
在Stereo-seq小鼠半脑数据中,SpaSEG准确标注了海马CA区(Neurod6+)、齿状回颗粒细胞(Prox1+)等结构;在seqFISH小鼠胚胎数据中,清晰划分了前脑(Six3+)、中脑(Otx2+)等发育区域。局部逆辛普森指数(LISI)分析显示其空间聚类纯度显著优于基准方法(p<0.001)。

多切片整合能力
通过同步处理4个相邻DLPFC切片,SpaSEG实现了0.889±0.250的F1LISI评分,在保持组织结构完整性的同时,避免了PASTE等方法产生的空间畸变。小鼠嗅球Stereo-seq数据的整合成功重建了三维颗粒细胞层(GCL)和室管膜下区(SEZ)结构。

空间可变基因检测
在DLPFC数据中鉴定出81个SVGs,包括白质区标志物CNP和皮层特异性基因HPCAL1。小鼠胚胎Stereo-seq数据中发现的252个SVGs与神经发育(Nnat)、表皮分化(Krt10)等功能通路显著相关,GO富集分析验证了其生物学合理性。

肿瘤微环境解析
应用于ER+/PR-/HER2+乳腺癌样本时,SpaSEG不仅区分了浸润性癌(MUC1+)与正常区域,还通过边界分析发现肿瘤-基质界面存在CXCL12/CXCR4和JAG2/NOTCH3等信号通路的空间梯度分布,揭示了癌相关成纤维细胞(CAFs)与免疫细胞的协同调控网络。

该研究的创新价值主要体现在三个方面:方法学上,首次将图像分割思想引入SRT分析,通过CNN架构实现端到端的空间域识别;技术上,双损失函数设计有效平衡了转录组相似性与空间连续性;应用层面,统一框架解决了SRT数据分析的四大核心任务。特别值得注意的是,SpaSEG处理526,716个位点的超大规模数据时,速度较SpaGCN提升26倍,展现出显著的工程优势。

这些突破为复杂疾病微环境研究、发育生物学等领域提供了强有力的分析工具。未来通过整合多组学数据和优化噪声处理算法,有望进一步拓展其在精准医学中的应用前景。研究揭示的肿瘤免疫调控机制,也为乳腺癌靶向治疗提供了新的分子线索。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号