注册
登录
专栏名称:
AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
英国大家谈
·
视频号平台开放广告投放啦!
·
3 天前
英国大家谈
·
英国大家谈商务合作及转载须知
·
4 天前
英国大家谈
·
视频号平台开放广告投放啦!
·
4 天前
CFC商品策略研究
·
【重磅】年度策略会讲师阵容公布——逐光而行, ...
·
5 天前
今天看啥
›
专栏
›
AINLPer
蚂蚁集团 | 提出多任务大模型微调方法:CoBa,LLM最高性能提升13%!
AINLPer
·
公众号
· · 2024-11-12 20:39
文章预览
点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 引言 多任务学习(MTL)旨在让模型经过一个训练过程中,让模型具备处理多种任务的能力。简单来说,MTL能够在不同任务之间共享信息,有效提高模型的泛化能力和数据效率。多任务学习的关键主要体现在参数共享、联合损失函数、权重调整等方面。 当前将大模型作为骨干模型,进行多任务学习,是高效利用大模型能力一种方法。但是现有的MTL策略在LLMs微调过程中, 「会存在两个问题:1)计算资源要求高;2)无法保证多任务的同时收敛」 。为此,今天给大家分享的这篇文章,为了解决这两个问题, 「提出了一种新型MTL方法:CoBa」 ,即在训练过程CoBa可以动态地调整任务权重,促进各任务收敛平衡,降低了计算资源要求;结果表明:该方法 可以让LLMs的性能最高提升13% 。 论文:https:// ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
英国大家谈
·
视频号平台开放广告投放啦!
3 天前
英国大家谈
·
英国大家谈商务合作及转载须知
4 天前
英国大家谈
·
视频号平台开放广告投放啦!
4 天前
CFC商品策略研究
·
【重磅】年度策略会讲师阵容公布——逐光而行,向阳而生
5 天前