专栏名称: 赛尔实验室
哈尔滨工业大学社会计算与信息检索研究中心
今天看啥  ›  专栏  ›  赛尔实验室

赛尔笔记 | 大模型上下文长度扩展中的检索增强技术简述

赛尔实验室  · 公众号  · 程序员  · 2024-06-29 10:51

文章预览

笔记作者: 刘议骏,徐阳 转载须标注出处: 哈工大SCIR 背景介绍 基于Transformer的语言模型在众多自然语言处理任务上都取得了十分优异的成绩,在一些任务上已经达到SOTA的效果。但是,经过预训练后,模型能够较好处理的序列长度就固定下来。而当前的众多场景往往需要处理很长的上下文(如:大的代码仓库、书籍等长文档的摘要、few-shot等输入较长的in-context learning场景等等),其长度超过了模型预训练时使用的长度,无法一次性输入模型,导致语言模型无法充分利用长输入中完整的知识,因而性能受到制约。 针对这一问题,研究者们提出了多种检索的方法,从全部的历史上文中检索所需的相关token,放入有限的窗口内计算attention,使得模型能够利用短的输入窗口处理长的序列。 方法概述 受预训练的限制,模型能够较好处理的序列长度相对固 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览