专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

KDD 2024 | ShapeFormer:多维时序分类中基于形状的Transformer

数据派THU  · 公众号  · 大数据  · 2024-09-03 17:40

主要观点总结

本文介绍了多维时序分类中的Transformer的应用,特别是针对多变量时间序列分类(MTSC)的问题。针对现有方法主要关注通用特征而忽视类别特定特征的问题,提出了一种新颖的Shapelet Transformer(ShapeFormer)用于MTSC。ShapeFormer包含两个Transformer模块,旨在识别时间序列数据中的类别特定特征和通用特征。通过实验验证,ShapeFormer在分类准确性方面与最先进的方法相比达到了最高排名。

关键观点总结

关键观点1: 研究背景

多变量时间序列分类(MTSC)由于其多样的现实世界应用引起了广泛的研究关注。现有方法主要关注通用特征,但忽略了类别特定特征,这在数据集不平衡或类别特定细节存在差异的情况下表现不佳。

关键观点2: 论文亮点

最新相关研究工作提出了一种Shapelet Transformer(ShapeFormer)用于MTSC,包含两个Transformer模块,旨在识别类别特定特征和通用特征。通过结合这两个模块,ShapeFormer在分类准确性方面达到了最高排名。

关键观点3: 模型方法

ShapeFormer使用Offline Shapelet Discovery (OSD) 方法从训练数据集中提取Shapelets。研究引入了Shapelet Filter和位置嵌入技术,用于利用shapelet的特定类别特性。此外,通用Transformer利用卷积滤波器从时间序列中提取通用特征。

关键观点4: 实验分析

实验结果表明,ShapeFormer在多个数据集上取得了最佳性能,并在平均排名和top-1数量上均表现优异。此外,通过使用shapelets,该模型在准确率方面优于使用随机子序列和通用子序列的方法。


文章预览

来源 :时序人 本文 约3400字 ,建议阅读 5 分钟 本文介绍了多维时序分类中的 Transformer 。 多变量时间序列分类(MTSC)由于其多样的现实世界应用而引起了广泛的研究关注。最近,利用 Transformer 进行MTSC已经取得了最先进的性能。然而,现有方法主要关注通用特征,提供了对数据的全面理解,但它们忽略了对于学习每个类别代表性特征至关重要的类别特定特征。这导致在数据集不平衡或整体模式相似但在类别特定细节上存在差异的数据集上表现不佳。 针对上述问题,本文介绍一篇来自墨尔本大学和莫纳什大学的最新相关研究工作,目前已被KDD 2024接收。研究者提出了一种新颖的Shapelet Transformer(ShapeFormer)用于多变量时间序列分类。它包含两个 Transformer 模块,旨在识别时间序列数据中的类别特定特征和通用特征。特别是,第一个模块通过利用从整个 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览