文章预览
今天介绍香港科技大学(广州)的一篇关于图预训练(Graph Pretraining)的文章" All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining",本文被KDD2024接收,代码已开源。 论文地址:https://arxiv.org/abs/2402.09834 项目地址:https://github.com/cshhzhao/GCOPE 背景 大型基座模型在自然语言处理(NLP)和计算机视觉(CV)领域都获得了瞩目的成就。其最显著的特点是能够在大规模的多样化的跨域数据集上进行预训练(称之为“All in One”),并将学习到的多样化知识迁移到各种跨域跨任务的下游数据集中(称之为“One for All”),展现出卓越的泛化能力和适应能力。然而,将这个想法应用到图领域仍然是一个巨大的挑战,跨域预训练往往会导致负迁移(如图1)。具体而言,首先,不同领域图数据之间多样化的结构模式会直接影响跨域预训练中学习到
………………………………