文章预览
作者:LeonYi,四川大学 计算机技术硕士 声明:本文只做分享,版权归原作者,侵权私信删除! 原文:https://zhuanlan.zhihu.com/p/696057719 编辑:青稞AI 一、背景 1.1 Transformer结构 Basic Transformer block 自注意力模块 1.2 指令微调 在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。是NLP目前的主流范式。 指令微调在预训练语言模型微调的基础进行优化,其目的是尽量让下游任务的形式尽量接近预训练任务。 从而减少下游任务和预训练任务之间的Gap, 实现预训练语言模型适应下游任务,而非下游任务去适应模型 指令微调的效果要优于基于Zero/Few-shot的提示词工程的上下文学习。 但随着预训练语言模型进入LLM时代,其参数量愈发庞大。全量微调模型所有参数所需的显存早已水涨船高。 例如: 全参
………………………………