今天看啥  ›  专栏  ›  NLP工作站

全是细节 | 聊一聊做SFT的经验

NLP工作站  · 公众号  ·  · 2024-10-08 10:00

文章预览

国庆回来,大家都学起来吧! 赶紧分享一篇好友 知乎@ybq 的一篇关于大模型SFT的经验分享。 知乎:https://zhuanlan.zhihu.com/p/809229182 这篇文章介绍一下大模型的 sft 如何去做。相比较于上一篇文章介绍的 pretrain ,sft 实在没有太多的技术细节和琐碎工作需要科普。因此,我会默认读者们都知道 sft 是做什么的以及如何去做一些简单的 sft 微调工作,我主要是分享一些经验技巧和 debug 的分析思路。 老样子,为避免老板开了我,涉及到 agent / 复杂指令 / 长文本等相对避讳一点的话题,我会点到为止,主要聊聊大的技术方向,细节可能就不多说了,望大家见谅。 背景篇 这里先普及一些 sft 涉及到的基础概念,方便新人同学理解后续内容,老同学则可以跳过这一篇章。 Special Token pretrain 阶段完全没见过的 token,在sft 阶段会被赋予全新的语义。主要用于标注对 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览