基于Mamba自适应异常Transformer的时间序列异常检测模型MAAT及其在工业监测中的应用

【字体: 时间:2025年07月26日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  针对时间序列异常检测中存在的短时上下文敏感、计算效率低及噪声干扰等问题,研究人员提出Mamba自适应异常Transformer(MAAT),通过稀疏注意力(Sparse Attention)机制和Mamba选择性状态空间模型(Mamba-SSM)优化关联差异建模,结合门控注意力动态融合特征。实验表明MAAT在多个基准数据集上显著优于现有方法,为工业监控和环境传感等领域提供了更鲁棒的异常检测方案。

  

时间序列异常检测是工业监控、环境感知和基础设施可靠性保障的核心挑战,但现有方法如Anomaly Transformer和DCdetector仍面临短时上下文敏感性、计算效率低下及噪声干扰等问题。尤其在高维非平稳数据中,传统统计模型(如ARIMA)和深度学习模型(如LSTM)难以捕捉复杂时序模式,而基于重构的方法易受相似异常干扰。

为突破这些局限,研究人员提出了Mamba自适应异常Transformer(MAAT)。该模型创新性地整合了稀疏注意力机制与Mamba选择性状态空间模型(Mamba-SSM):稀疏注意力通过局部窗口(公式(3))减少冗余计算,而Mamba-SSM以线性复杂度建模长程依赖。两者通过门控注意力(公式(8)-(9))动态融合,平衡重构保真度与上下文增强。关联差异指标(AssDis,公式(10))进一步优化异常判别的可解释性。

关键技术包括:(1)块稀疏注意力(Block-wise Sparse Attention)局部化关联计算;(2)Mamba-SSM选择性扫描长序列依赖;(3)门控跳跃连接(Gated Skip Connection)自适应加权特征;(4)基于KL散度的关联差异损失函数。实验采用MSL、SMAP等7个基准数据集,涵盖航天器传感器、水质监测等多领域时序数据。

研究结果显示:

  1. 性能对比:在SMD数据集上,MAAT的F1-score达92.30%,较Anomaly Transformer提升2.18%;在MSL数据集召回率(R)达98.33%,优于DCdetector的97.40%。
  2. 模块贡献:消融实验表明,稀疏注意力单独使用会降低MSL的召回率2%,但与Mamba-SSM结合后通过门控机制实现95.05% F1-score(表5)。
  3. 噪声鲁棒性:在SWaT数据中,MAAT的Affiliation Precision(Aff-P)达56.26%,显著高于基线模型,证明其对工业噪声的适应性。

讨论指出,MAAT的创新在于通过稀疏化与状态空间模型的协同,解决了传统Transformer在长序列和噪声场景的局限性。其动态门控机制(如公式(9)中g→0/1的切换)可针对性处理突发异常与渐变趋势。未来工作可探索超参数自适应优化及在线学习架构,以进一步提升在实时监测中的适用性。该研究发表于《Engineering Applications of Artificial Intelligence》,为无监督时序分析提供了新范式。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号