文章预览
【点击】 加入大模型技术交流群 原文:https://zhuanlan.zhihu.com/p/702196014 一、背景说明 RAG技术为大型语言模型(LLMs)提供了从数据源检索到的信息,以支撑其生成的答案。 简而言之,RAG就是搜索加上LLM提示,你让模型在提供的信息上下文中回答问题。查询和检索到的上下文都被注入到发送给LLM的提示中。 传统的建模方式 : 典型的RAG向量化应用程序有两个主要组件: 索引 :从源中获取数据并对其进行向量化索引。 检索和生成 :运行时接受用户查询转化成向量化数据,并从索引中检索相关数据,然后将其传递给LLM,生成内容。 实际使用过程中,上面简单的流程经常效果不能满足业务需求,核心问题在于如何检索并处理好传给LLM的内容,下面介绍几种优化思路以及LangChain的实现。 二、优化方法 2.1 多层索引 多层索引技术主要是针对海量的文档检索的
………………………………