一个有情怀的公众号。机器学习、自然语言处理、算法等知识集中营、期待与你相遇~
目录
相关文章推荐
今天看啥  ›  专栏  ›  机器学习算法与自然语言处理

LoRA、完全微调到底有何不同?MIT 21页论文讲明白了

机器学习算法与自然语言处理  · 公众号  ·  · 2024-11-13 09:00
    

文章预览

MLNLP 社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。 社区的愿景 是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。 转载自 | 机器之心 编辑 | 陈陈、小舟 本文旨在了解两种微调大型语言模型方法之间的差异:完全微调和低秩自适应 (LoRA)。这两种方法都用于将预训练模型适应特定的下游任务,但它们却有所不同。 微调(Fine-tuning)是将经过预训练的大语言模型应用于下游任务的关键范例。最近,低秩自适应 (LoRA) 等方法已被证明可以在各种任务上达到完全微调模型的性能,同时可训练参数的数量却大大减少。 这就提出一个问题,即它们学到的解决方案真的等效吗? 带着这一疑问,来自 MIT 的研究者在论文《 LORA VS FULL FINE- ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览