专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

【KDD2024教程】RAG遇上LLMs:迈向检索增强的大语言模型

数据派THU  · 公众号  · 大数据  · 2024-09-11 17:00

文章预览

来源:专知 本文 约1000字 ,建议阅读 5 分钟 在本教程中,我们全面回顾了现有的关于检索增强大型语言模型(RA-LLMs)的研究工作 。 作为人工智能领域最先进的技术之一, 检索增强生成(RAG)  技术能够提供可靠且最新的外部知识,为众多任务带来了巨大的便利。特别是在AI生成内容(AIGC)时代,RAG强大的检索能力可以提供额外的知识,帮助现有的生成式AI生成高质量的输出。最近,大型语言模型(LLMs)在语言理解和生成方面展现了革命性的能力,但它们仍面临固有的局限性,如幻觉和过时的内部知识。鉴于RAG在提供最新且有用的辅助信息方面的强大能力, 检索增强的大型语言模型(RA-LLMs)  应运而生,利用外部的权威知识库,而不是单纯依赖模型的内部知识,从而增强LLMs的生成质量。 在本教程中,我们全面回顾了现有的关于检索增强大型语 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览