关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
目录
相关文章推荐
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

KDD2024 | GCOPE:港科广联合港中文提出首个跨域图预训练框架

深度图学习与大模型LLM  · 公众号  ·  · 2024-07-09 08:30
    

文章预览

今天介绍香港科技大学(广州)的一篇关于图预训练(Graph Pretraining)的文章" All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining",本文被KDD2024接收,代码已开源。 论文地址:https://arxiv.org/abs/2402.09834 项目地址:https://github.com/cshhzhao/GCOPE 背景 大型基座模型在自然语言处理(NLP)和计算机视觉(CV)领域都获得了瞩目的成就。其最显著的特点是能够在大规模的多样化的跨域数据集上进行预训练(称之为“All in One”),并将学习到的多样化知识迁移到各种跨域跨任务的下游数据集中(称之为“One for All”),展现出卓越的泛化能力和适应能力。然而,将这个想法应用到图领域仍然是一个巨大的挑战,跨域预训练往往会导致负迁移(如图1)。具体而言,首先,不同领域图数据之间多样化的结构模式会直接影响跨域预训练中学习到 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览