今天看啥  ›  专栏  ›  LangChain

LangChain - RAG: 老板说我们的 RAG 既要支持多文档、又要超长上下文、准确性好还要超低成本!我 X...

LangChain  · 知乎专栏  ·  · 2024-03-08 10:45

文章预览

老规矩先说结论:我们要讨论的 RAPTOR 方法在针对内容检索的「海底捞针」(Needle-in-a-Haystack, 由 @GregKamradt 想到的一种测试 LLM 检索能力的方法,Claude 3 Opus 前几天发布的结果里面最引人注目的就是那张「几乎全绿」的测试结果图: Introducing the next generation of Claude 。 更多详情:1. https:// twitter.com/GregKamradt /status/1722386725635580292 ;2. https://www. youtube.com/watch? v=KwRRuiCCdmc )测试结果中大幅度领先( QuALITY测试上比 GPT4 优秀 20% : QuALITY: Question Answering with Long Input Texts, Yes! ),准确性、召回率提升,且可以支持更多的文档和更长的上下文,是不是很惊喜?看起来可以满足老板的 既要支持多文档,又要支持超长上下文,还要成本超级低 的伟大(BT)要求。 QuALITY: Question Answering with Long Input Texts, Yes! 老规矩先说结论:我们要讨论的 RAPTOR 方法在针对内容检索的「海 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览