关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

LLMExplainer:将大语言模型(LLM)作为贝叶斯推理模块嵌入到GNN解释器中,显著提高了解释的准确性和鲁棒性

深度图学习与大模型LLM  · 公众号  ·  · 2024-09-06 21:58

文章预览

大家好,今天给大家介绍一篇最新Graph LLM相关的研究论文,这篇论文提出了一种名为LLMExplainer的新方法,用于 解决图神经网络(GNN)解释中的学习偏差问题 。该方法地将大语言模型(LLM)作为贝叶斯推理模块嵌入到GNN解释器中,显著提高了解释的准确性和鲁棒性。这项工作为GNN可解释性研究提供了新的视角。 1. 基本信息 标题: LLMExplainer: Large Language Model based Bayesian Inference for Graph Explanation Generation LLMExplainer:基于大语言模型的图解释生成贝叶斯推理 作者及其研究机构:Jiaxing Zhang (New Jersey Institute of Technology), Jiayi Liu (Purdue University), Dongsheng Luo (Florida International University), Jennifer Neville (Purdue University, Microsoft Research), Hua Wei (Arizona State University) 时间:2024年7月23日(预印本) arXiv链接: https://arxiv.org/abs/2407.15351v2 2. 研究背景 提高GNN的可解释性不仅有助于增强模 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览