专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
目录
今天看啥  ›  专栏  ›  PaperWeekly

对齐全量微调!这是我看过最精彩的LoRA改进

PaperWeekly  · 公众号  · 科研  · 2024-07-31 22:32
    

主要观点总结

本文介绍了对齐全量微调的工作LoRA-Pro,它与之前的LoRA-GA互补,通过修改优化器的更新规则使得LoRA的每一步更新都尽量与全量微调对齐。文章还包含了实验结果的展示和关于初始化的讨论。

关键观点总结

关键观点1: LoRA-Pro的工作机制

LoRA-Pro通过对优化器的更新规则进行修改,使得LoRA的每一步更新都尽量与全量微调对齐。它通过对全量微调的梯度进行近似,然后用于Adam优化器的更新方向。

关键观点2: 实验结果

LoRA-Pro在GLUE上的实验结果超过了全量微调的结果。

关键观点3: 初始化讨论

LoRA-Pro的初始化采用了符合直觉的正交初始化,即让初始的A,B是单位阵(的若干倍)。之前的工作LoRA-GA给出的初始化也是正交初始化。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照