今天看啥  ›  专栏  ›  酷酷的群

LoRA:大模型下游任务的低秩适应

酷酷的群  · 公众号  ·  · 2023-07-24 15:10

文章预览

论文标题:LoRA: Low-Rank Adaptation of Large Language Models  论文链接:https://arxiv.org/abs/2106.09685 论文来源:NVIDIA 一、概述 自然语言处理中的一个重要范式是在通用域数据上进行大规模预训练,然后在特定任务或域上适配。然而随着模型规模(比如GPT-3这样规模模型的出现)越来越大,对大模型的全参数微调变得更加困难,这在存储和部署上都非常具有挑战性。 目前的一些研究试图通过只微调一部分参数或为新任务学习外部模块来缓解这个问题。这样,我们只需要在进行每个任务时存储和加载少量的任务特定参数以及预训练模型,大大提高了部署时的操作效率。然而,现有的技术也存在一些问题,比如其通过扩展模型深度(adapter等方法)增加了推理延迟(inference latency),或者减少了模型可用的序列长度。更重要的是,这些方法通常无法达到微调baseline的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览