专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
目录
相关文章推荐
PaperWeekly  ·  CCL ... ·  昨天  
今天看啥  ›  专栏  ›  PaperWeekly

大模型的微调一般训练多少epoch不会过拟合?

PaperWeekly  · 公众号  · 科研  · 2024-05-31 13:32
    

文章预览

最近出现了一系列令人激动的开源大语言模型,如meta的LLaMA、清华的ChatGLM等。伴随大模型一起爆火的,还有大模型的微调方法。然而随着模型规模和任务数量的增加,对整个Transformer模型进行微调也变得越来越昂贵。因此, 很多 参数高效微调方法(Parameter-Efficient Fine-Tuning,PEFT) 方法被提出来解决这类问题。 免费扫描参与课程(附 老师ppt原稿 & 100+大模型论文 ) 领99个 大模型微调模型/数据/工具 (文末有福利) 导师推荐100+大模型论文合集 我们邀请了清华大学博士,AI顶会审稿人青山老师为大家带来—— 惊艳的大模型高效参数微调法! 来和大家聊一聊有关大模型微调的方法、未来趋势及创新点! 免费扫描参与课程(附 老师ppt原稿 & 100+大模型论文 ) 领99个 大模型微调模型/数据/工具 (文末有福利) 讲师介绍—青山老师 ▪️ 研究领域: 工业 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览