专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

ICML 2024 | Mila联合华为提出图连续卷积CKGConv,媲美SOTA图Transformer

PaperWeekly  · 公众号  · 科研  · 2024-08-25 22:36

文章预览

近年来,基于 Transformer 的图模型(图 Transformer,graph Transformer)成为了一个备受关注的研究 方向。有别于传统的基于信息传递机制(Message-passing)的图神经网络(简称 MPNN), 图 Tran sformer 通过全局注意力机制来聚合全图的所有其他节点的信息,因此它能有效克服 MPNNs的过度挤压 (over-squashing),过度平滑 (over-smoothing),以及有限的表征能力(上界为于 1 阶 WL 算法)。 得益于图 Transformer 的设计,在对结构信息要求较高的图任务中(如[1], [2]),图 Transformer 的表现有着对 MPNNs 极大的优势 [3, 4]。 近年来,在视觉领域,不少研究者在质疑注意力机制和 Transformer 是不是唯一的“正确解”。 不基于注意力机制的卷积网络(Convolution Networks, 简称ConvNet), 是否能够于达到 Transformer 一样的性能。 同样的,在图学习领域有不少研究者也在思考, 是否能够不通过注意力 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览