关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

图结构赋能语言模型:华为诺亚MILA联合提出基于图的可控数据合成提升大语言模型长逻辑链推理能力

深度图学习与大模型LLM  · 公众号  ·  · 2024-10-24 09:35
    

文章预览

图结构赋能语言模型:华为诺亚MILA联合提出基于图的可控数据合成提升大语言模型长逻辑链推理能力 Enhancing Logical Reasoning in Large Language Models through Graph-based Synthetic Data https://arxiv.org/abs/2409.12437 大语言模型(LLMs)在理解和生成类人语言方面取得了巨大的进步,展现了其在自然语言处理上的强大潜力。然而,当涉及逻辑推理,尤其是多跳推理和复杂关系时,这些模型的能力仍然有待提高。L LM 的未来不只是通过更大的模型和更多的数据来实现,而在于如何使用更智能的数据和更有效的方法来训练这些系统,从而增强其逐步推理的能力 。最近的研究表明,基于图的合成数据可能是提升 LLM 逻辑推理能力的关键突破口。 1. 研究目的 本文探讨了通过基于图的合成推理数据作为训练监督信号,以提升大语言模型(LLM)在逻辑推理任务中的表现,同时揭示了 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览