今天看啥  ›  专栏  ›  赛尔实验室

赛尔笔记 | 大模型上下文长度扩展中的检索增强技术简述

赛尔实验室  · 公众号  · 程序员  · 2024-06-29 10:51
笔记作者:刘议骏,徐阳转载须标注出处:哈工大SCIR背景介绍基于Transformer的语言模型在众多自然语言处理任务上都取得了十分优异的成绩,在一些任务上已经达到SOTA的效果。但是,经过预训练后,模型能够较好处理的序列长度就固定下来。而当前的众多场景往往需要处理很长的上下文(如:大的代码仓库、书籍等长文档的摘要、few-shot等输入较长的in-context learning场景等等),其长度超过了模型预训练时使用的长度,无法一次性输入模型,导致语言模型无法充分利用长输入中完整的知识,因而性能受到制约。针对这一问题,研究者们提出了多种检索的方法,从全部的历史上文中检索所需的相关token,放入有限的窗口内计算attention,使得模型能够利用短的输入窗口处理长的序列。方法概述受预训练的限制,模型能够较好处理的序列长度相对固定,通 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照