专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

时间序列预测中如何构建层级化的 Transformer 架构?

数据派THU  · 公众号  · 大数据  · 2024-10-05 17:00

文章预览

来源:时序人 ‍ ‍ ‍ ‍ 本文 约2800字 ,建议阅读 9分钟 本文介绍一篇 KDD 2024 中的时间序列预测工作,来自中科大的研究者提出了一种新的生成式预训练分层 Transformer 架构用于预测,命名为 GPHT。 近年来,学界和业界致力于通过引入先进的网络架构和自监督预训练策略来提高时间序列预测的准确性。然而现有方法存在两大缺点。本文介绍一篇 KDD 2024 中的时间序列预测工作,来自中科大的研究者提出了一种新的生成式预训练分层 Transformer 架构用于预测,命名为 GPHT。 【论文标题】 Generative Pretrained Hierarchical Transformer for Time Series Forecasting 【论文地址】 https://arxiv.org/abs/2402.16516 【论文源码】 https://github.com/icantnamemyself/gpht 论文背景 时间序列预测作为时间序列分析中的一项基础任务,近年来的热度居高不下。一方面,基于深度学习的方法因其能够捕 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览