关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

ICML 2024: LLaGA-解决图数据向LLM可理解格式转换的挑战,同时保持了LLM的通用性

深度图学习与大模型LLM  · 公众号  ·  · 2024-08-09 21:35

文章预览

大家好,今天为大家介绍ICML 2024一篇关于大模型LLM的研究论文《LLaGA: Large Language and Graph Assistant》。这篇论文提出了一个框架,将大模型(LLM)的能力与图结构数据处理相结合。 该工作解决了图数据向LLM可理解格式转换的挑战,同时保持了LLM的通用性 。 1. 基本信息 论文题目:LLaGA: Large Language and Graph Assistant 作者:Runjin Chen, Tong Zhao, Ajay Jaiswal, Neil Shah, Zhangyang Wang 作者研究单位: The University of Texas at Austin Snap Inc. 代码链接:https://github.com/VITA-Group/LLaGA 2. 研究背景 图神经网络(GNNs)在图结构数据分析方面取得了显著进展。但是,将LLMs直接应用于图数据面临着独特的挑战,主要是由于将图结构转化为语言形式存在固有困难。 现有研究试图将图结构转化为适合LLMs处理的自然语言,但这种方法往往冗长且无法直接表示图的内在特征。InstructGLM通过特定任务的微 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览