GCformer:一种用于准确和可扩展的长期多变量时间序列预测的高效框架

摘要:基于Transformer的模型已经成为时间序列预测的有希望的工具。然而,这些模型无法对长输入时间序列进行准确预测。一方面,它们无法捕捉时间序列数据中的全局依赖关系。另一方面,长输入序列通常导致模型大小增大和时间复杂度增加。 为了解决这些限制,我们提出了GCformer,它将用于处理长输入序列的结构化全局卷积分支与用于捕捉短期近期信号的局部Transformer分支相结合。引入了一个具有三种不同参数化方法的全局卷积核的一体化框架。全局分支中选定的结构化卷积核经过特殊设计,具有亚线性复杂度,因此能够高效有效地处理冗长且嘈杂的输入信号。对六个基准数据集的实证研究表明,GCformer优于最先进的方法,在多元时间序列基准测试中将均方误差减少了4.38%,模型参数减少了61.92%。特别是,全局卷积分支可以作为插件块来增强其他模型的性能,平均改进幅度为31.93%,包括各种最近发布的基于Transformer的模型。我们的代码可在https://github.com/zyj-111/GCformer上公开获取。

作者:YanJun Zhao, Ziqing Ma, Tian Zhou, Liang Sun, Mengni Ye, Yi Qian

论文ID:2306.08325

分类:Machine Learning

分类简称:cs.LG

提交时间:2023-08-16

PDF 下载: 英文版 中文版pdf翻译中