专栏名称: 瓦力算法学研所
我们是一个致力于分享人工智能、机器学习和数据科学方面理论与应用知识的公众号。我们将分享最新的人工智能和数据科学技术、案例、研究成果、新闻和趋势,以及如何应用这些技术来解决实际问题,探索每一项技术落地的可行性方案。
目录
相关文章推荐
黄冈日报  ·  即将开始查分! ·  2 天前  
黄冈日报  ·  即将开始查分! ·  2 天前  
今天看啥  ›  专栏  ›  瓦力算法学研所

LLM SFT trick

瓦力算法学研所  · 公众号  ·  · 2024-09-28 18:39
    

文章预览

技术专栏 本篇将介绍 大模型SFT的trick 。 作者: LAM https://zhuanlan.zhihu.com/p/682604566 微调基础知识: 微调是在预训练好的大型语言模型基础上,使用特定数据集进行进一步训练的过程,目的是使模型适应特定任务或领域。微调的方式主要有: 指令微调 :通过将指令和答案拼接成文本,转换为聊天式任务进行训练。在计算损失时,只计算答案部分,指令部分通过设置忽略索引来忽略。 添加特定任务层 :针对不同任务,如分类任务,在模型最后一层添加softmax层。 微调样本: 高质量的样本比大量中低质量的样本效果更好。大约1万左右的样本数量就能取得较好的效果。样本质量的评估需要考虑样本多样性和答案质量。 微调方法: 微调方法分为全参数微调和部分参数微调。全参数微调通常资源消耗较大,而部分参数微调方法如LoRA、Adapter等更为节省资源 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览