专栏名称: 吃果冻不吐果冻皮
专注于AI工程化(LLM、MLOps、LLMOps、RAG、Agent)落地。
今天看啥  ›  专栏  ›  吃果冻不吐果冻皮

全参微调与LoRA的区别,及7种LoRA变种方法解析

吃果冻不吐果冻皮  · 公众号  ·  · 2024-11-06 18:00
    

文章预览

原文:https://zhuanlan.zhihu.com/p/818782004 1. 前言 随着LLM的发展和应用,在LLM的预训练模型基础上做微调,使其适用于自己的业务场景的研究越来越多。与全参数SFT相比LoRA是在冻结LLM本身参数的基础上,在旁路增加两个可学习的矩阵,用于训练和学习,最后推理是LLM输出和可学习的矩阵的输出相加,得到最终的输出。它与全参数微调方法区别是: 资源上的差异: •  全参数微调:需要加载和更新全部LLM参数,需要更高的显存(需要的显存一般是单一参数的4倍),数据量上也需要更多的微调数据; •  LoRA:只需要加载LLM参数,训练两个可学习的低秩矩阵,显存和数据量要求较低,训练速度也更快; 效果上差异: •  全参数微调:存在灾难性遗忘的风险,理论效果上限更高; •  LoRA:和全参数微调效果差距不大,稳定性和扩展性更好; 2. LoRA原理 LoRA低 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览