专栏名称: CVer
一个专注侃侃计算机视觉方向的公众号。计算机视觉、图像处理、机器学习、深度学习、C/C++、Python、诗和远方等。
今天看啥  ›  专栏  ›  CVer

微调神器!上海交大提出高效微调统一新范式!仅微调0.02%参数,性能接近全量微调!

CVer  · 公众号  ·  · 2024-07-22 13:05
    

文章预览

点击下方 卡片 ,关注“ CVer ”公众号 AI/CV重磅干货,第一时间送达 点击进入—> 【Mamba/多模态/扩散】交流群 添加微信号:CVer111,小助手会拉你进群! 扫描下方二维码,加入CVer学术星球 ! 可以获得最新顶会/顶刊上的论文idea 和 CV从入门到精通资料,及最前沿应用 !发论文/搞科研/涨薪,强烈推荐! ChouJay 投稿 转载自:量子位(QbitAI) Scaling Laws当道,但随着大模型应用的发展,基础模型不断扩大的参数也成了令开发者们头疼的问题。 为了减轻训练负担,Adapter、Prompt-Tuning以及LoRA等高效微调 (Parameter Efficient Fine-Tuning, PEFT) 算法越来越受到大家伙的青睐。 那么,问题来了—— 尽管近年来高效微调领域发展迅速,涌现了多种方法,但不同PEFT方法背后的数学基础几乎没有得到深入研究。 此外,不同PEFT方法之间的性能差异及其原因尚未系统地探讨 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览