专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
今天看啥  ›  专栏  ›  AINLP

大模型位置编码概览及在图像视频领域应用

AINLP  · 公众号  ·  · 2024-09-29 21:42

文章预览

      本文主要总结了下大模型位置编码,以及位 置编码在图像/视频上的应用及变种。 一、    为什么要有位置编码? 由于attention的设计,计算的是token的矩阵乘法,矩阵元素之间除了相似关系没有其他联系,所以网络感知不到token的位置关系,也就是说只要是同一批token,任何顺序输入网络,输出结果都是一样的。但是在自然语言中文本的顺序是很重要的。 于是需要引入位置关系,让模型能够感知到token的顺序。 二、位置编码的基础特性? 1.绝对唯一性: 即每个Token在序列的绝对位置输出唯一的编码。(体现同一个token在不同位置的区别) 2.不同相对性:在任何长度不同的序列中,不同位置的Token之间的相对位置/距离保持一致。(体现Token位置之间差异的不变性) 3.外推有界值:这套编码方式很容易推广到未见过的长句,因此其值域应有上界。 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览