专栏名称: 悟乙己
比肩iPhone,技术的黄金时代
今天看啥  ›  专栏  ›  悟乙己

大模型RAG 场景、数据、应用难点与解决(四)

悟乙己  · 知乎专栏  ·  · 2023-12-21 17:32
    

文章预览

放一段RAG解释: RAG(Retrieval-Augmented Generation)检索增强生成,即大模型LLM在回答问题或生成文本时,会先从大量的文档中检索出相关信息,然后基于这些检索出的信息进行回答或生成文本,从而可以提高回答的质量,而不是任由LLM来发挥。 上图来自:https://arxiv.org/pdf/2312.10997.pdf 在早些 【 悟乙己:想自己利用OpenAI做一个文档问答的话...... ?】笔者看到了非常多文档问答的技术实践,技术路线大同小异,不过笔者在实践过程中恍然, 垃圾进,垃圾出 的定律在文档问答同样存在,所以,手上的文档该如何整理会让召回提升呢? 在【 队长:对于大模型RAG技术的一些思考 】也有一些吐槽:即使基于单篇文档回答,它们(ChatDoc,WPS AI)在我们垂直领域的文档的幻想问题还是很严重。但是输出的答案不认真看的话,确实挺惊艳。例如问个操作步骤问题, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览