文章预览
点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 在大模型实际部署落地的过程中,如何赋予大模型持续学习的能力是一个至关重要的挑战。这使其能够动态适应新的任务并不断获得新的知识。大模型的持续学习主要面临两个重大挑战,分别是灾难性遗忘和知识迁移。灾难性遗忘是指模型在学习新任务时,会忘记其已掌握的旧任务。知识迁移则涉及到如何在学习新任务时有效地应用旧任务的知识来提升新任务学习的效果。【作者主页: https://circle-hit.github.io 】 为了有效应对以上难题,哈工大联合度小满推出针对大模型的共享注意力持续学习框架 SAPT,相应论文已被自然语言处理顶级会议 ACL 2024 接收。 论文:SAPT: A Shared Attention Framework for Parameter-Efficient Continual Learning of Large Language Models 论文地址:https://arxiv.org/abs/2401.08295 研究动机 现有面
………………………………