今天看啥  ›  专栏  ›  圆圆的算法笔记

预训练大语言模型对时间序列预测真的有用吗?去掉预训练LLM效果反而提升

圆圆的算法笔记  · 公众号  ·  · 2024-07-01 22:55

文章预览

点关注,不迷路,用心整理每一篇算法干货~ 后台留言” 交流 “, 加入圆圆算法交流群~ 后台回复“ 星球 ”加入 圆圆算法知识星球~ ( 已有 780+ 同学加入学习) 今天给大家介绍一篇关于大模型在时间序列应用探讨的工作。这篇文章质疑大语言模型在时间序列预测中是否有效,并对目前最先进的3个基于大语言模型的时间序列预测模型进行实验,发现 去掉大语言模型部分,改成一个attention网络,也能取得相同甚至更优的效果 。 论文标题 :Are Language Models Actually Useful for Time Series Forecasting? 下载地址 : https://arxiv.org/pdf/2406.16964v1 1 背景 随着大语言模型的兴起,一些工作也将其应用到时间序列预测领域。这类方法一般基于预训练好的NLP领域的语言模型,将时间序列转换成文本形式输入其中,通过finetune大模型,产出预测结果。典型的代表工作包括OneFits ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览