基于图空间滤波与轻量化卷积神经网络的稳态视觉诱发电位协同解码框架

【字体: 时间:2025年09月17日 来源:Neurocomputing 6.5

编辑推荐:

  本研究针对SSVEP信号解码中数据不足、通道冗余和模型复杂度过高的问题,提出了一种融合数据增强、图空间滤波和轻量化CNN的协同解码框架。该框架在三个数据集上实现了至少6.8%的准确率提升和最高221.4 bits/min的ITR,为高效神经信号解码提供了创新解决方案。

  

在脑机接口(Brain-Computer Interface, BCI)技术迅猛发展的今天,基于稳态视觉诱发电位(Steady-State Visual Evoked Potential, SSVEP)的脑电信号解码系统因其非侵入性和高信息传输速率而备受关注。这类系统通过识别大脑对特定频率视觉刺激产生的周期性神经响应,实现了人与外部设备的直接交互,在医疗辅助、工业控制和虚拟现实等领域展现出巨大潜力。然而,现有的SSVEP解码方法仍面临三大挑战:深度学习模型在有限样本下的过拟合问题、EEG通道间因容积传导导致的信息冗余,以及复杂模型带来的高计算开销。传统方法往往忽视EEG通道的物理拓扑关系,而现有的图神经网络又因多层迭代聚合导致参数激增和特征过平滑。

为破解这些难题,来自英国利兹大学的研究团队在《Neurocomputing》上发表了一项创新研究,提出了一种协同设计的SSVEP识别框架。该工作巧妙地整合了切片缩放数据增强、基于图论的空间滤波和轻量化卷积神经网络三大模块,在提升解码性能的同时显著降低了计算复杂度。

研究人员采用了几项关键技术方法:首先使用切片缩放技术对来自两个公共数据集(40目标基准数据集和Beta数据集)和一个自采集数据集(12目标)的EEG信号进行数据增强;接着基于电极物理坐标构建图结构,应用随机游走拉普拉斯矩阵进行拓扑感知的空间滤波;最后设计了一个参数仅30k的轻量化CNN架构(LGFCNN)进行特征提取和分类。所有实验均采用被试内设计,通过五折交叉验证和早期停止策略优化模型训练。

研究结果方面,在"整体SSVEP分类性能"部分显示:LGFCNN在三个数据集上均显著优于5种主流深度学习模型(EEGNet、CCNN、AttentCNN、SSVEPNet和SSVEPformer),在1秒数据长度下分别达到93.1%、86.4%和90.7%的平均准确率。t-SNE可视化分析表明LGFCNN输出特征具有最佳的类内聚集性和类间分离性,聚类质量指标(CH指数、轮廓系数和DB指数)全面领先。

在"数据增强和图空间滤波的有效性分析"部分证实:数据增强使特征聚类质量显著提升,缩放因子λ=0.1时效果最优;图滤波使通道间相关系数从0.8-0.9降至0.2-0.3,有效增强了信息差异性。消融实验显示数据增强和空间滤波分别带来6.2-12.5%和2.8-8.2%的准确率提升。

在"EEG通道数量分析"部分发现:19通道配置比9通道准确率提高约15%,证明更多通道能提供更丰富的拓扑信息。即使仅使用9个通道,LGFCNN仍保持67.0%(0.6s)和80.3%(1s)的竞争性准确率。

在"损失函数和神经网络结构的参数分析"部分表明:正则化因子α=0.1时模型性能最优;Conv1D和Point-wise Conv2D模块的组合对特征提取至关重要;LGFCNN的计算量(160.3M FLOPs)比EEGNet降低14%,推理时间仅2.1ms,实现了精度与效率的最佳平衡。

研究结论指出,这种协同框架成功解决了SSVEP解码中的三个关键问题:数据增强缓解了有限样本下的过拟合,图空间滤波利用EEG拓扑关系抑制了通道间冗余信息,轻量化CNN则实现了高效时空特征提取。特别值得关注的是,该框架在提升性能的同时显著降低了计算复杂度,为实时BCI应用奠定了基础。研究者也坦诚指出当前模型在超短数据长度(0.2s)和跨被试泛化方面仍存在局限,未来将通过动态图滤波和迁移学习进一步突破这些瓶颈。

这项工作的重要意义在于:首次将图论中的随机游走拉普拉斯算子作为固定空间先验引入SSVEP解码,避免了传统GNN的参数爆炸问题;通过简单的幅度缩放 augmentation 实现了与复杂增强方法相当的性能提升;最终形成的协同框架在保持轻量化的同时实现了最先进的解码性能,为实用化BCI系统的开发提供了重要技术支撑。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号