围绕脑机接口和计算机视觉领域,研究新一代人机交互和人机混合智能的关键核心技术
今天看啥  ›  专栏  ›  脑机接口与混合智能研究团队

ICLR 2024 | iTRANSFORMER在时间序列预测中刷新SOTA

脑机接口与混合智能研究团队  · 公众号  ·  · 2024-05-26 17:27
    

文章预览

该论文发表于The International Conference on Learning Representations 2024,论文题目为《iTRANSFORMER: INVERTED TRANSFORMERS ARE EFFECTIVE FOR TIME SERIES FORECASTING》。 论文链接: https://arxiv.org/abs/2310.06625 https://github.com/thuml/iTransformer 论文概要 最近,线性预测模型蓬勃发展,导致修改基于Transformer预测器架构的热情降低。这些预测器利用Transformer对时间序列的时间token进行全局依赖性建模,每个token由相同时间戳的多个变体组成。然而,由于性能下降和计算爆炸的问题,Transformer在预测具有较大回溯窗口的序列时面临挑战。此外,每个时间token的嵌入融合了代表潜在延迟事件和不同物理测量的多个变量,这可能无法学习以变量为中心的表征并导致无意义的注意图。 在文章中,作者对 Transformer 组件的职责进行了思考,并在不对基本组件进行任何修改的情况下重组了Transformer架构, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览