专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
今天看啥  ›  专栏  ›  AINLPer

哈工大 | 提出共享Attention框架:SAPT,提升LLM持续学习性能

AINLPer  · 公众号  ·  · 2024-05-29 22:30
    

文章预览

点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 在大模型实际部署落地的过程中,如何赋予大模型持续学习的能力是一个至关重要的挑战。这使其能够动态适应新的任务并不断获得新的知识。大模型的持续学习主要面临两个重大挑战,分别是灾难性遗忘和知识迁移。灾难性遗忘是指模型在学习新任务时,会忘记其已掌握的旧任务。知识迁移则涉及到如何在学习新任务时有效地应用旧任务的知识来提升新任务学习的效果。【作者主页: https://circle-hit.github.io 】 为了有效应对以上难题,哈工大联合度小满推出针对大模型的共享注意力持续学习框架 SAPT,相应论文已被自然语言处理顶级会议 ACL 2024 接收。 论文:SAPT: A Shared Attention Framework for Parameter-Efficient Continual Learning of Large Language Models 论文地址:https://arxiv.org/abs/2401.08295 研究动机 现有面 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览