文章预览
夕小瑶科技说 原创
作者 | Axe_越 经常参加高考的朋友可能会体会到,比起死记硬背知识点,将知识整理成脉络往往会获得事半功倍的效果。其实对于大模型来说也是如此,哪怕被允许“开卷作答”,即通过检索增强(Retrieval-augmented generation,RAG)技术从知识库中为大模型取回相应知识作为参考,但当面对复杂问题的时候,RAG对大模型的增益效果也不尽如人意。毕竟“ 难道开卷你们就能考满分了吗? ” 也正因如此,我们希望为大模型的思考方式注入类似知识框架的方法指导,而已经发展多年趋渐成熟的知识图(Knowledge-Graph,KG)或许将给我们一个解决方案。 论文标题 : Think-on-Graph 2.0: Deep and Interpretable Large Language Model Reasoning with Knowledge Graph-guided Retrieval 论文链接 : https://arxiv.org/pdf/2407.10805.pdf 背景与动机 在当前的大模型(LLMs)研究中,RAG技术
………………………………