专栏名称: 专知
专知,为人工智能从业者服务,提供专业可信的人工智能知识与技术服务,让认知协作更快更好!
目录
相关文章推荐
岚山发布  ·  今天起,岚山休渔了! ·  17 小时前  
今天看啥  ›  专栏  ›  专知

【ICML2024】深度过参数低秩学习与适应中的可压缩动力学

专知  · 公众号  ·  · 2024-06-09 00:14
    

文章预览

尽管机器学习模型中的过参数化在优化和泛化方面带来了极大的好处,但随着模型规模的增长,也导致了计算需求的增加。在这项工作中,我们展示了通过利用数据和模型参数内在的低维结构和可压缩动力学,我们可以在不增加计算负担的情况下享受过参数化的好处。在实践中,我们证明了这种方法在深度低秩矩阵补全以及微调语言模型方面的有效性。我们的方法基于深度过参数化低秩矩阵恢复的理论发现,我们证明了每个权重矩阵的学习动力学被限制在一个不变的低维子空间中。因此,我们可以构建和训练紧凑的高度压缩的分解,同时具有与其过参数化对应物相同的优势。在深度矩阵补全的背景下,我们的技术在保持过参数化优势的同时,大大提高了训练效率。对于语言模型的微调,我们提出了一种称为“Deep LoRA”的方法,这种方法改进了现有 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览