专栏名称: 数据STUDIO
点击领取《Python学习手册》,后台回复「福利」获取。『数据STUDIO』专注于数据科学原创文章分享,内容以 Python 为核心语言,涵盖机器学习、数据分析、可视化、MySQL等领域干货知识总结及实战项目。
今天看啥  ›  专栏  ›  数据STUDIO

LoRA(Low-Rank Adaptation)详解

数据STUDIO  · 公众号  ·  · 2024-08-22 11:30
    

文章预览

前言 随着最近大规模语言模型(Large Language Model,LLM)的出现,数十亿乃至千亿的参数量级成为了LLM的标配。如此参数量级的模型意味着传统的模型微调或者线性探测无法同时在训练效率和效果上同时满足开发者的要求。在之前我们介绍过PEFT(Parameter-Efficient Fine-Tuning)的重要的 提示学习 (Prompt Learning)和 适配器学习 (Adapter Learning)。提示学习的问题是模型的效果对提示的依赖非常严重,无论是离散提示还是连续提示,提示怎么有效的构造永远是提示学习的一个痛点。另外对于适配器学习来说,它们一般会向网络层中插入一些可学习的模块,同时这也带来了推理时间的增加。我们这里介绍一个近期训练LLM普遍使用的PEFT算法: LoRA (Low Rank Adaptation)[1]名思义,LoRA的核心思想是基于低秩的适配器进行优化。 1. 背景知识 1.1 什么是秩? 那么什么是 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览