一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
目录
相关文章推荐
中国能建  ·  何以能建 · 碧水 ·  3 天前  
今天看啥  ›  专栏  ›  深度学习自然语言处理

详解LLM参数高效微调:从Adpter、PrefixTuning到LoRA

深度学习自然语言处理  · 公众号  ·  · 2024-06-17 17:38
    

文章预览

作者:LeonYi,四川大学 计算机技术硕士 声明:本文只做分享,版权归原作者,侵权私信删除! 原文:https://zhuanlan.zhihu.com/p/696057719 编辑:青稞AI 一、背景 1.1 Transformer结构 Basic Transformer block 自注意力模块 1.2 指令微调 在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。是NLP目前的主流范式。 指令微调在预训练语言模型微调的基础进行优化,其目的是尽量让下游任务的形式尽量接近预训练任务。 从而减少下游任务和预训练任务之间的Gap, 实现预训练语言模型适应下游任务,而非下游任务去适应模型 指令微调的效果要优于基于Zero/Few-shot的提示词工程的上下文学习。 但随着预训练语言模型进入LLM时代,其参数量愈发庞大。全量微调模型所有参数所需的显存早已水涨船高。 例如: 全参 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览