文章预览
来源:时序人 本文 约2800字 ,建议阅读 9分钟 本文介绍一篇 KDD 2024 中的时间序列预测工作,来自中科大的研究者提出了一种新的生成式预训练分层 Transformer 架构用于预测,命名为 GPHT。 近年来,学界和业界致力于通过引入先进的网络架构和自监督预训练策略来提高时间序列预测的准确性。然而现有方法存在两大缺点。本文介绍一篇 KDD 2024 中的时间序列预测工作,来自中科大的研究者提出了一种新的生成式预训练分层 Transformer 架构用于预测,命名为 GPHT。 【论文标题】 Generative Pretrained Hierarchical Transformer for Time Series Forecasting 【论文地址】 https://arxiv.org/abs/2402.16516 【论文源码】 https://github.com/icantnamemyself/gpht 论文背景 时间序列预测作为时间序列分析中的一项基础任务,近年来的热度居高不下。一方面,基于深度学习的方法因其能够捕
………………………………