文章预览
©PaperWeekly 原创 · 作者 | 孙秋实 单位 | 新加坡国立大学 研究方向 | 自然语言处理 论文题目: InstructGraph: Boosting Large Language Models via Graph-centric Instruction Tuning and Preference Alignment 论文链接: https://arxiv.org/pdf/2402.08785 代码链接: https://github.com/wjn1996/InstructGraph Graph指令数据: https://huggingface.co/datasets/wjn1996/InstructGraph 当大语言模型遇到图,会发生什么样的化学反应呢?最近由华东师范大学(ECNU)和加州大学圣地亚哥分校(UC San Diego)联合提出了针对提升大模型在 图推理和图生成能力 的 InstructGraph 框架。该工作被 ACL 2024 接收。 背景:LLM与Graph 众所周知,大语言模型(Large Language Models,LLMs)是通过自回归式的 Causal Language Modeling 实现预训练,自然语言文本遵循着 token-by-token 的序列形式实现文本生成和推理。然而,图(Graph)则不是序列模式的数
………………………………