文章预览
点关注,不迷路,用心整理每一篇算法干货~ 后台留言” 交流 “, 加入圆圆算法交流群~ 扫码加入 系统 深入 学习时间序列知识 ( 已有 970+ 同学加入学习, 800+ 干货笔记) 直接基于预训练的大语言模型(LLM)解决时间序列问题,是一个最近的重要研究点。之前的研究中,主要尝试用LLM进行zero-shot learning,或者基于LLM的参数进行finetune。随着研究的深入,研究者发现,单独的一个LLM模型,或者单独的用LLM在时序数据上finetune,并不能取得最优的效果。因此除了上述优化之外,另一些工作尝试 同时引入LLM构建文本模型和时序模型,并对两种模态的信息进行对齐 ,提升时序预测效果。 今天就给大家总结几篇最近一段时间,使用 语言模型+时序模型进行融合建模 的最新工作。 1 基于Attention的文本时序融合 Taming Pre-trained LLMs for Generalised Time Series Forecasting
………………………………