文章预览
大家好,今天为大家介绍一篇Graph LLM的研究论文。这篇论文提出了名为 GraphGPT的框架 , 将大模型与图结构数据对齐,以提高图学习模型的泛化能力 。这项工作解决了图神经网络在零样本学习和跨数据集泛化方面的挑战,为图结构数据的分析和学习提供了新的范式. 1. 基本信息 论文题目:GraphGPT: Graph Instruction Tuning for Large Language Models 作者:Jiabin Tang, Yuhao Yang, Wei Wei, Lei Shi, Lixin Su, Suqi Cheng, Dawei Yin, Chao Huang 作者研究单位:University of Hong Kong, Baidu Inc. 代码链接:https://github.com/HKUDS/GraphGPT 2. 研究背景 图神经网络(GNNs)在图结构数据的分析和学习方面取得了显著进展,已广泛应用于社交网络分析、推荐系统和生物网络分析等领域。但是,传统GNN方法在处理稀疏和噪声数据时,其鲁棒性和泛化能力还不够理想。为解决这一问题,自监督学习(SSL)被引入作
………………………………