注册
登录
专栏名称:
AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
高校人才网V
·
桂林电子科技大学北海校区招聘公告
·
6 天前
今天看啥
›
专栏
›
AINLPer
蚂蚁集团 | 提出多任务大模型微调方法:CoBa,LLM最高性能提升13%!
AINLPer
·
公众号
· · 2024-11-12 20:39
文章预览
点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 引言 多任务学习(MTL)旨在让模型经过一个训练过程中,让模型具备处理多种任务的能力。简单来说,MTL能够在不同任务之间共享信息,有效提高模型的泛化能力和数据效率。多任务学习的关键主要体现在参数共享、联合损失函数、权重调整等方面。 当前将大模型作为骨干模型,进行多任务学习,是高效利用大模型能力一种方法。但是现有的MTL策略在LLMs微调过程中, 「会存在两个问题:1)计算资源要求高;2)无法保证多任务的同时收敛」 。为此,今天给大家分享的这篇文章,为了解决这两个问题, 「提出了一种新型MTL方法:CoBa」 ,即在训练过程CoBa可以动态地调整任务权重,促进各任务收敛平衡,降低了计算资源要求;结果表明:该方法 可以让LLMs的性能最高提升13% 。 论文:https:// ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
高校人才网V
·
桂林电子科技大学北海校区招聘公告
6 天前
中铁十九局集团有限公司
·
【深化改革】视频大讲堂之生产安全事故管理规定
2 月前
野球帝
·
大牌同款冲锋衣,两面随心穿,时尚又保暖。
1 月前
中国信通院CAICT
·
我国制造业数字化改造加速布局
3 周前