文章预览
本文翻译自 Sebastian Raschka 的“New LLM Pre-training and Post-training Paradigms” ,他也是 《Build a Large Language Model (from Scratch)》这本书的作者,强烈推荐一下,译者是知友 @铁头爱摆摊。 原文: https://magazine.sebastianraschka.com/p/new-llm-pre-training-and-post-training 译文: https://zhuanlan.zhihu.com/p/715138042 大型语言模型(LLM)的发展已经取得了长足的进步,从早期的GPT模型到我们今天拥有的复杂的开放权重LLM。 最初,LLM的训练过程仅集中于预训练,但后来扩展到包括预训练和后训练。 后训练通常包括监督指令微调和对齐,这些是由ChatGPT普及的。 自ChatGPT首次发布以来,训练方法已经发生了变化。在本文中,我回顾了最近几个月在预训练和后训练方法论方面的最新进展。 本文讨论的新预训练和后训练方法论,概述了LLM开发和训练流程 每个月都有数百篇LLM论文提出新技术和
………………………………