专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
今天看啥  ›  专栏  ›  AINLPer

蚂蚁集团 | 提出多任务大模型微调方法:CoBa,LLM最高性能提升13%!

AINLPer  · 公众号  ·  · 2024-11-12 20:39
    

文章预览

点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 引言 多任务学习(MTL)旨在让模型经过一个训练过程中,让模型具备处理多种任务的能力。简单来说,MTL能够在不同任务之间共享信息,有效提高模型的泛化能力和数据效率。多任务学习的关键主要体现在参数共享、联合损失函数、权重调整等方面。 当前将大模型作为骨干模型,进行多任务学习,是高效利用大模型能力一种方法。但是现有的MTL策略在LLMs微调过程中, 「会存在两个问题:1)计算资源要求高;2)无法保证多任务的同时收敛」 。为此,今天给大家分享的这篇文章,为了解决这两个问题, 「提出了一种新型MTL方法:CoBa」 ,即在训练过程CoBa可以动态地调整任务权重,促进各任务收敛平衡,降低了计算资源要求;结果表明:该方法 可以让LLMs的性能最高提升13% 。 论文:https:// ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览