文章预览
今天我们来聊一个新兴的、创新空间很大的方向: 时间序列+预训练大模型。 预训练大模型因为在大规模多领域的数据集上进行训练,能学习到丰富的、跨领域的时间序列表示,在面对新的、没见过的时间序列数据时,它能够表现出更强的泛化性和数据处理能力,实现更高的准确性。 因此关于时间序列+预训练大模型的研究正在快速发展,并且已经在多个领域和应用中有了显著的成果,比如Chronos、清华Timer等,更有提高了42.8%性能的ViTST。 如果有同学有想法发论文,可以从 零样本和通用性 下手,这俩是这个方向关注的重点。另外为方便大家找参考,我整理了 10个 时间序列+预训练大模型最新成果 ,全都已开源可复现。 扫码 添加小享, 回复“ 时序预训练 ” 免费获取 全部论文及代码合集 Time Series as Images: Vision Transformer for Irregularly Sampled Time Seri
………………………………