文章预览
来源:专知 本文 约1000字 ,建议阅读 5 分钟 我们提出了一个 慢速与快速参数高效调优(SAFE)框架。 持续学习 旨在从数据流中逐步获取新概念,同时避免遗忘先前的知识。随着强大**预训练模型(PTMs) 的兴起,越来越多的研究关注如何使用这些基础模型来训练增量学习系统,而不是从头开始学习。现有的研究通常将预训练模型视为一个强大的起点,并在第一阶段直接应用 参数高效调优(PET)**以适应下游任务。在随后的阶段,大多数方法会冻结模型参数,以解决遗忘问题。然而,直接将PET应用于下游数据并不能充分挖掘预训练模型中的固有知识。此外,在增量学习阶段冻结参数会限制模型对第一阶段未涵盖的新概念的适应性。 为了解决上述问题,我们提出了一个 慢速与快速参数高效调优(SAFE) 框架。具体来说,为了继承基础模型中的通用知
………………………………