文章预览
我是 小冬瓜AIGC ,原创超长文知识分享 原创课程已帮助多名同学上岸 LLM 赛道 知乎 / 小红书 : 小冬瓜AIGC 按照scaling law,越大的模型性能也越好 同时训练的难度也大幅提升 以下基于Llama-3- 70B 模型训练,对比SFT/PPO训练耗时 运算平台为A800(80G)x8 总体训练耗时 < 2天 上述为课程的实操结果 可复现 ,更多课程内容详情如下: 一、课程概况 课程内容:直播 + 往期录播 + 手撕级Notebook + 非调包源码 + 算法图解 + 课程PPT 课程项目:垂域大模型实操 + DeepSpeed多卡SFT、RM、PPO、DPO训练 进阶专题: 手撕LLaMA、 手撕RL、手撕RLHF PPO(Notebook)、LLM加速、LLM分布式训练 入门要求:Pytorch+神经网络或深度学习基础 授课形式:每周2章节直播,5周上完前10章节 价格:私聊单独咨询 实操效果:本课程代码仓库MA-RLHF,实战多卡训练; 已全线支持 Llama-3-8B/70B SFT/DPO/PPO训练 ;
………………………………