文章预览
大语言模型(LLMs)与知识表示学习(KRL)的整合,标志着人工智能领域的重要进展,增强了捕捉和利用复杂知识结构的能力。这种协同作用利用了LLMs的高级语言和语境理解能力,以提升KRL的准确性、适应性和效能,从而扩展其应用和潜力。 尽管有越来越多的研究集中在将LLMs嵌入到知识表示领域,但关于这些增强模型基本组件和过程的彻底审查明显缺乏。我们的综述通过基于三种不同的Transformer架构对这些模型进行分类,并分析来自各种KRL下游任务的实验数据,以评估每种方法的优势和劣势 。最后,我们确定并探讨了这一新兴但尚未深入探讨的领域的潜在未来研究方向,提出了持续进展的路径。 介绍 大语言模型(LLMs)(例如,BERT [18],LLaMA [59]),代表了一个不断增长模型大小的方向,这些模型在更大的语料库上进行预训练,已经展示出在解决
………………………………