专栏名称: CS的陋室
陋室,用知识装点。房主主要谈论与数学和计算机相关的知识,不定时推送和个人学习进度相关的知识,大数据时代,数学和计算机一个不能拉下。来一起学习和讨论吧!
今天看啥  ›  专栏  ›  CS的陋室

无脑Scaling!2天训完 70B RLHF-PPO

CS的陋室  · 公众号  ·  · 2024-06-18 20:46
    

文章预览

我是 小冬瓜AIGC ,原创超长文知识分享 原创课程已帮助多名同学上岸 LLM 赛道 知乎 / 小红书  : 小冬瓜AIGC 按照scaling law,越大的模型性能也越好 同时训练的难度也大幅提升 以下基于Llama-3- 70B 模型训练,对比SFT/PPO训练耗时 运算平台为A800(80G)x8 总体训练耗时 < 2天 上述为课程的实操结果 可复现 ,更多课程内容详情如下: 一、课程概况 课程内容:直播 + 往期录播 + 手撕级Notebook + 非调包源码 + 算法图解 + 课程PPT 课程项目:垂域大模型实操 + DeepSpeed多卡SFT、RM、PPO、DPO训练 进阶专题: 手撕LLaMA、 手撕RL、手撕RLHF PPO(Notebook)、LLM加速、LLM分布式训练 入门要求:Pytorch+神经网络或深度学习基础 授课形式:每周2章节直播,5周上完前10章节 价格:私聊单独咨询 实操效果:本课程代码仓库MA-RLHF,实战多卡训练;  已全线支持 Llama-3-8B/70B SFT/DPO/PPO训练 ; ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览