今天看啥  ›  专栏  ›  小盒子的技术分享

提升RAG应用性能:使用智谱AI的GLM-4和Embedding-3模型优化文档检索

小盒子的技术分享  · 公众号  ·  · 2024-10-08 15:59

文章预览

回顾 上文  提速 RAG 应用:用 DeepSeek API 替换本地 Ollama 模型,LlamaIndex 实战解析 我们介绍了如何通过 DeepSeek 的 API 调用 DeepSeek v2.5 模型 替换通过 Ollama 调用本地下载好的 Qwen2.5 模型。 这样做的目的是想通过 API 调用远程部署好的 LLM 给我们的 RAG 应用提提速。不然由于本地个人电脑计算资源的不足(我的电脑没有 GPU)会导致 RAG 应用运行缓慢。 在我们的 RAG 应用中分别使用了两个模型 ,一个是 embedding 模型,它的作用有这么几点: 文档嵌入(Document Embedding) 表示文档 :将文档转换为高维向量(embeddings),这些向量能够捕捉文档的语义信息。 相似度计算 :通过计算查询和文档嵌入之间的相似度,找到与查询最相关的文档。 查询嵌入(Query Embedding) 表示查询 :将用户的查询转换为高维向量,这些向量能够捕捉查询的语义信息。 检索相关文档 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览