时间序列预测(TSF)已成为现实世界应用中最重要的部分,在金融(Elliott & Timmermann, 2008)、医疗保健(Bertozzi, Franco, Mohler, Short, & Sledge, 2020)、气象(Wu, Zhou, Long, & Wang, 2023b)和工程(Zhao, Ma, Li, & Zhang, 2023)等领域发挥着关键作用。它为决策制定和解决复杂问题提供了宝贵的见解。提取有意义的模式并理解时间序列的动态对于预测未来趋势至关重要。然而,由于现实世界数据的复杂性,包括非平稳性、噪声和非线性模式,实现准确的预测仍然具有挑战性。
长期时间序列预测(LTSF)扩展了预测范围,有助于政策规划和投资决策。早期的预测方法依赖于差分技术将非平稳过程转换为平稳过程,以解决关键的预测挑战。传统的模型如ARIMA(Ariyo, Adewumi, & Ayo, 2014)、VAR(Siggiridou & Kugiumtzis, 2015)和GRUs(Dey & Salem, 2017)因其简单性和可解释性而取得了成功并得到了广泛应用。然而,当应用于LTSF,特别是长期规划时,这些模型的计算复杂性增加,准确性降低。为了满足更复杂任务的需求,现代模型必须更好地捕捉历史数据中的长期趋势和复杂模式。
研究人员引入了技术来克服传统模型的局限性,以提高LTSF的准确性。传统的时间序列分析侧重于从历史数据中提取模式以生成预测。相比之下,机器学习方法如神经网络(Zhang, 2003)、决策树(Zhang et al., 2022)和随机森林(Qiu, Zhang, Suganthan, & Amaratunga, 2017)可以直接在数据中识别趋势,从而实现更准确的预测。近年来,深度学习技术在预测任务中表现出色,并展示了强大的表示学习和迁移学习能力,最终促进了时间序列预测方法的重大创新。在基于深度学习的时间序列预测方法中,循环神经网络(RNNs)(Guo, Fang, Wang, Zhang, 2025, Li, Feng, Hua, 2021)、长短期记忆网络(LSTMs)(Greff, Srivastava, Koutník, Steunebrink, & Schmidhuber, 2016)、卷积神经网络(CNNs)(Wu et al., 2023a)和图神经网络(GNNs)(Zhang, Meng, & Gu, 2024)已成为处理高维、非线性和非平稳时间序列数据的领先解决方案。通过端到端的学习过程自动提取复杂特征,这些方法大大提高了预测性能,为更有效和多用途的LTSF模型铺平了道路。
尽管深度学习方法在各种应用中取得了显著的成功,但在应用于非平稳序列时仍存在一些局限性。这些问题可以大致分为三类:首先,深度学习模型——特别是RNNs和LSTM单元——通常假设时间序列数据具有某种形式的潜在平稳性。然而,实际上,许多实际数据集表现出明显的非平稳性,包括长期趋势和季节性波动。因此,当潜在的平稳性假设被违反时,这些模型难以适应,最终降低了它们的预测准确性。其次,深度学习模型常用的多通道特征提取过程会在不同通道之间引入显著的分布变化。这种变化可能导致非平稳特征的混合,从而削弱模型的预测能力。第三,训练数据分布与模型预测数据之间的差异,特别是在非平稳时间序列的背景下,会削弱模型在推理过程中的泛化能力。
尽管最近的一些模型如DLinear、TimesNet和PatchTST在时间序列预测方面取得了显著进展,但有效建模非平稳多变量时间序列仍然是一个重大挑战。DLinear提高了线性预测的效率,但它缺乏缓解非平稳性引起的分布变化的机制。TimesNet通过频域分解来模拟周期性行为,但其关于准平稳频率分量的假设限制了其对动态时间变化的适应性。PatchTST使用基于补丁的变换器来捕捉全局依赖性,但它主要强调时空相关性,而没有明确解决由时变分布引起的非平稳性问题。为了克服这些局限性,我们提出了FTdasc,这是一个新颖的框架,它结合了频域和时域表示,并融入了平稳性校正机制。FTdasc引入了一种归一化策略来减轻非平稳波动,使用双域编码器来捕捉全局和局部时间依赖性,并整合了一个平稳性校正模块,将统计学习与时序一致性相结合,以使模型的输出与原始数据的分布对齐。总体而言,这些组件提高了模型在非平稳条件下的鲁棒性和泛化能力,代表了现有深度时间序列预测架构的重大进步。
本文的主要贡献如下:
•介绍了一种基于多层感知器的时间序列预测模型,能够学习长期和短期关系,同时独立处理时间和通道交互。
•提出了一种频域分解方法,实现了层次解耦,并有效利用了时间序列预测中的长短期依赖关系。
•开发了一种时域平稳性校正方法,有效捕捉时间依赖性,以恢复模型输出中的非平稳信息。