专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

【NeurIPS2024】SAFE: 慢速与快速参数高效调优用于基于预训练模型的持续学习

数据派THU  · 公众号  · 大数据  · 2024-11-26 17:00

文章预览

来源:专知 本文 约1000字 ,建议阅读 5 分钟 我们提出了一个 慢速与快速参数高效调优(SAFE)框架。 持续学习 旨在从数据流中逐步获取新概念,同时避免遗忘先前的知识。随着强大**预训练模型(PTMs) 的兴起,越来越多的研究关注如何使用这些基础模型来训练增量学习系统,而不是从头开始学习。现有的研究通常将预训练模型视为一个强大的起点,并在第一阶段直接应用 参数高效调优(PET)**以适应下游任务。在随后的阶段,大多数方法会冻结模型参数,以解决遗忘问题。然而,直接将PET应用于下游数据并不能充分挖掘预训练模型中的固有知识。此外,在增量学习阶段冻结参数会限制模型对第一阶段未涵盖的新概念的适应性。 为了解决上述问题,我们提出了一个 慢速与快速参数高效调优(SAFE) 框架。具体来说,为了继承基础模型中的通用知 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览