关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

KDD 2024 || 利用大模型提高文本属性图(TAG)图对比学习效果

深度图学习与大模型LLM  · 公众号  ·  · 2024-08-22 11:00
    

文章预览

今天为大家介绍一篇最新的研究论文。该论文提出了GAugLLM图增强框架,利用大模型提高文本属性图(TAG)的 图对比学习效果 。 1. 基本信息 论文题目:GAugLLM: Improving Graph Contrastive Learning for Text-Attributed Graphs with Large Language Models 作者:Yi Fang, Dongzhe Fan, Daochen Zha, Qiaoyu Tan 作者研究单位: SFSC of AI and DL, New York University(Shanghai), Shanghai, China Department of Computer Science, Rice University, Huston, USA 代码链接: https://github.com/NYUSHCS/GAugLLM 2. 研究背景 图对比学习(Graph Contrastive Learning, GCL)作为一种自监督学习方法,近年来表现出色。但现有GCL方法在处理文本属性图(Text-Attributed Graphs, TAGs)时存在局限性。TAGs是一种特殊图结构,节点不仅包含结构信息,还附带丰富的文本属性。 本文指出了现有GCL方法处理TAGs时的两个主要问题: 特征级增强的局限性 :传统方法通常用 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览