专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
今天看啥  ›  专栏  ›  AINLP

详解LLM参数高效微调:从Adpter、PrefixTuning到LoRA

AINLP  · 公众号  ·  · 2024-06-24 10:10
    

文章预览

作者:LeonYi,四川大学 计算机技术硕士 声明:本文只做分享,版权归原作者 来源:青稞AI 原文:https://zhuanlan.zhihu.com/p/696057719 一、背景 1.1 Transformer结构 Basic Transformer block 自注意力模块 1.2 指令微调 在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。是NLP目前的主流范式。 指令微调在预训练语言模型微调的基础进行优化,其目的是尽量让下游任务的形式尽量接近预训练任务。 从而减少下游任务和预训练任务之间的Gap, 实现预训练语言模型适应下游任务,而非下游任务去适应模型 指令微调的效果要优于基于Zero/Few-shot的提示词工程的上下文学习。 但随着预训练语言模型进入LLM时代,其参数量愈发庞大。全量微调模型所有参数所需的显存早已水涨船高。 例如: 全参微调Qwen2-7B预估要2 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览