关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

SIGIR 2024 || GraphGPT: 将大模型与图结构数据对齐,以提高图学习模型的泛化能力

深度图学习与大模型LLM  · 公众号  ·  · 2024-08-12 10:32

文章预览

大家好,今天为大家介绍一篇Graph LLM的研究论文。这篇论文提出了名为 GraphGPT的框架 , 将大模型与图结构数据对齐,以提高图学习模型的泛化能力 。这项工作解决了图神经网络在零样本学习和跨数据集泛化方面的挑战,为图结构数据的分析和学习提供了新的范式. 1. 基本信息 论文题目:GraphGPT: Graph Instruction Tuning for Large Language Models 作者:Jiabin Tang, Yuhao Yang, Wei Wei, Lei Shi, Lixin Su, Suqi Cheng, Dawei Yin, Chao Huang 作者研究单位:University of Hong Kong, Baidu Inc. 代码链接:https://github.com/HKUDS/GraphGPT 2. 研究背景 图神经网络(GNNs)在图结构数据的分析和学习方面取得了显著进展,已广泛应用于社交网络分析、推荐系统和生物网络分析等领域。但是,传统GNN方法在处理稀疏和噪声数据时,其鲁棒性和泛化能力还不够理想。为解决这一问题,自监督学习(SSL)被引入作 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览