今天看啥  ›  专栏  ›  圆圆的算法笔记

KDD'24系列:统一时间序列预训练Transformer

圆圆的算法笔记  · 公众号  · 算法 科技自媒体  · 2024-09-21 21:49
    

主要观点总结

本文介绍了中科大和清华在KDD 2024联合发表的时间序列预测模型文章。文章提出一种基于Transformer的时间序列预训练模型,实现多源数据联合训练和任意时间步的预测,解决了现有时间序列预训练建模方法的两个问题。文章详细描述了建模方法,包括数据处理、层次Transformer、推断过程。并在实验效果上取得了显著提升。

关键观点总结

关键观点1: 文章背景与动机

随着预训练技术在NLP、CV领域的发展,希望将预训练思想应用于时间序列领域。然而,现有时间序列预训练建模方法存在数据类型较少和预测方法不够灵活的问题。

关键观点2: 建模方法的核心内容

文章提出了一种新的基于Transformer的时间序列预训练模型,包括数据处理、层次Transformer和推断过程三个部分。采用混合数据集训练,实现多类型数据集的兼容。使用层次Transformer结构,通过不同粒度的Transformer实现不同粒度周期性信息的提取。

关键观点3: 模型的预测方式

模型采用生成式的预测方式,在推断阶段,预测结果可以进一步加入到模型中预测下一个时间步的值,建立了预测结果之间的关系。也可以更灵活的实现任意长度的时间序列预测。

关键观点4: 实验效果

文中对比了和自监督、有监督等各类SOTA时间序列预测方法的效果,本文提出的方法取得了显著提升。

关键观点5: 其他信息

文章还提供了后台交流群和算法知识星球的加入方式,以及相关的干货算法笔记。


文章预览

点关注,不迷路,用心整理每一篇算法干货~ 后台留言” 交流 “, 加入圆圆算法交流群~ 后台留言” 干货 “, 获取干货算法笔记 ~ 后台回复“ 星球 ”,加入 圆圆算法知识星球~ ( 已有 850+ 同学加入学习) 今天给大家介绍一篇中科大和清华在KDD 2024中联合发表的时间序列预测模型文章。这篇文章致力于训练一个类似于NLP、CV等领域的统一时间序列大模型,构建了一个比较新颖的时间序列预测模型结构,实现了在多种类型数据上统一训练、任意长度的结果预测,显著提升了时间序列预测模型的通用性。 论文标题 :Generative Pretrained Hierarchical Transformer for Time Series Forecasting 下载地址 : https://arxiv.org/pdf/2402.16516 1 背景 随着预训练技术在NLP、CV中的发展,很多工作都希望将在时间序列领域也应用预训练的思想,预训练一个的时间序列模型,能够提升下游 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览