文章预览
“ 问 渠 那 得 清 如 许 , 为 有 源 头 活 水 来 ” , 通 过 前 沿 领 域 知 识 的 学 习 , 从 其 他 研 究 领 域 得 到 启 发 , 对 研 究 问 题 的 本 质 有 更 清 晰 的 认 识 和 理 解 , 是 自 我 提 高 的 不 竭 源 泉 。 为 此 , 我 们 特 别 精 选 论 文 阅 读 笔 记 , 开 辟 “ 源 头 活 水 ” 专 栏 , 帮 助 你 广 泛 而 深 入 的 阅 读 科 研 文 献 , 敬 请 关 注! 简介 上下文学习,即从上下文示例中学习,是Transformer一项令人印象深刻的能力。然而,由于学习瓶颈的出现——在训练过程中模型的上下文学习能力几乎没有或没有提升的时期——训练Transformer具备这种上下文学习技能是计算密集型的。为了研究学习瓶颈背后的机制,我们在概念上将模型内部表征中一个完全受模型权重影响的组件分离出来,称之为“权重组件”,其余部分被识别为“上下
………………………………