文章预览
随着大模型应用发展的深入, 参数高效微调(PEFT)凭借定制化、精准性等优势,成为大模型优化的热门方式, 其中,LoRA引入低秩矩阵,实现了不输全面微调的下游适应性能,但是,增长的训练需求也带来了存储和传输成本,为了显著提升LoRA计算效率, NeurIPS'24最新收录工作VB-LoRA,创新提出了分而共享机制,通过向量库进行全局参数共享, 仅需LoRA参数0.4%,调优效率全面超越LoRA! 为了帮助大家掌握大模型顶会微调方法,研梦非凡于 10月23日晚(周三) ,邀请了 从事大模型研究的王导师, 独家讲解 《VB-LoRA:超越LoRA!大模型微调效率巅峰!》 (AI前沿直播课NO.76) ,从大模型全量微调、PEFT,到LoRA及相关变体, 重点讲解顶会方法VB-LoRA架构、实验, 并介绍相关方法AM-LoRA,最后代码演示微调过程,1节课速通LoRA参数微调技术,get论文改进和实战
………………………………