文章预览
【点击】 加入大模型技术交流群 随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。 因此,该技术值得我们进行深入分析其背后的机理,之前分享了 大模型参数高效微调技术原理综述 的文章。下面给大家分享 大模型参数高效微调技术实战 系列文章,该系列共六篇文章,相关代码均放置在GitHub:llm-action。 大模型参数高效微调技术实战(一)-PEFT概述及环境搭建 大模型参数高效微调技术实战(二)-Prompt Tuning 大模型参数高效微调技术实战(三)-P-Tuning 大模型参数高效微调技术实战(四)-Prefix Tuning / P-Tuning v2 大模型参数高效微调技术实战(五)-LoRA 大模型参数高效微调技术实战(六)-IA3
………………………………