文章预览
在 科 学 研 究 中 , 从 方 法 论 上 来 讲 , 都 应 “ 先 见 森 林 , 再 见 树 木 ” 。 当 前 , 人 工 智 能 学 术 研 究 方 兴 未 艾 , 技 术 迅 猛 发 展 , 可 谓 万 木 争 荣 , 日 新 月 异 。 对 于 A I 从 业 者 来 说 , 在 广 袤 的 知 识 森 林 中 , 系 统 梳 理 脉 络 , 才 能 更 好 地 把 握 趋 势 。 为 此 , 我 们 精 选 国 内 外 优 秀 的 综 述 文 章 , 开 辟 “ 综 述 专 栏 ” , 敬 请 关 注 。 前言 DuoAttention 通过将大语言模型的注意力头分为检索头(Retrieval Heads,需要完整 KV 缓存)和流式头(Streaming Heads,只需固定量 KV 缓存),大幅提升了长上下文推理的效率,显著减少内存消耗、同时提高解码(Decoding)和预填充(Pre-filling)速度,同时在长短上下文任务中保持了准确率 。 论文链接:https://arxiv.org/abs/2410.10819 项目主页及代码:https://github.com
………………………………