专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
今天看啥  ›  专栏  ›  AINLPer

ACL 2024 | 构建超关系知识图谱(KG),增强大模型多跳/Multi-hop QA问答能力!

AINLPer  · 公众号  ·  · 2024-06-13 21:07
    

文章预览

点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 引言 对于非结构化文本,大模型 (LLM) 比较擅长回答简单(单跳)问题。然而,随着问题的复杂性增加,LLM 的性能会下降。本文作者认为其主要原因是,大模型在理解复杂问题和从原始文本中筛选、聚合非结构化信息过程中出现了性能问题。 为此,本文作者为了能让LLMs能够轻松回答复杂的多跳问题( Multi-hop QA ),本文提出了 HOLMES方法,该方法 创建了一个以查询为中心的上下文感知超关系知识图谱(KG) , 经过剪枝该图谱只包含与查询相关的信息,并作为LLM的唯一输入,Multi-hop QA效果具有大幅提升。与最先进的方法相比,最高可节约67%Token,并在 多个测试集上取得了一致性的提升 。 https://arxiv.org/pdf/2406.06027 背景介绍 多跳问答 (MHQA) 是NLP领域中一项重要挑战。假如我们要提取某公司董 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览