整理自然语言处理、推荐系统、搜索引擎等AI领域的入门笔记,论文学习笔记和面试资料(关于NLP那些你不知道的事、关于推荐系统那些你不知道的事、NLP百面百搭、推荐系统百面百搭、搜索引擎百面百搭)
目录
相关文章推荐
今天看啥  ›  专栏  ›  关于NLP那些你不知道的事

RAG 涨点小技巧——RAG上下文召回

关于NLP那些你不知道的事  · 公众号  ·  · 2024-09-23 00:00

文章预览

RAG 涨点小技巧——RAG上下文召回 转载☞: AI算法厨房 原文地址:https://mp.weixin.qq.com/s/5O8vdQ0CxUpSD-tj1o0IDQ 昨天Claude团队发了一个关于RAG的博客,介绍了上下文召回的思路,可以看看。先看看标准的RAG(检索增强生成)是怎么做的? 将用于检索的知识库(文档)拆为小(几百个token)的文本块 对文本块进行 TF-IDF 编码以及语义嵌入 使用 BM25 检索最相似的文本块 使用文本嵌入检索语义相似的文本块 合并、去重、排序两种方式检索得到的文本块 将 top k 个文本块放进提示词中辅助 LLM 生成回答 因为 需要对文本进行切块,所以经常遇到上下文被不合理分割的情况 举个例子,如果LLM的知识库里有一堆财务信息(比如美国SEC的文件),然后问题是:“ACME公司2023年第二季度的收入增长了多少?”这时候可能会有一个相关的信息是:“这家公司的收入比上个季 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览