专栏名称: 包包算法笔记
数据挖掘、机器学习、深度学习、Kaggle竞赛分享与交流。
今天看啥  ›  专栏  ›  包包算法笔记

实战Llama-3-70B RLHF-PPO训练耗时及成本

包包算法笔记  · 公众号  ·  · 2024-06-26 12:00
    

文章预览

我是 小冬瓜AIGC ,原创超长文知识分享 原创课程已帮助多名同学上岸 LLM 赛道 知乎 / 小红书  : 小冬瓜AIGC 按照scaling law,越大的模型性能也越好 同时训练的难度也大幅提升 以下基于Llama-3- 70B 模型训练,对比SFT/PPO训练耗时 运算平台为A800(80G)x8 总体训练耗时 < 2天 上述为课程的实操结果 可复现 ,更多课程内容详情如下: 一、课程概况 课程内容:直播 + 往期录播 + 手撕级Notebook + 非调包源码 + 算法图解 + 课程PPT 课程项目:垂域大模型实操 + DeepSpeed多卡SFT、RM、PPO、DPO训练 进阶专题: 手撕LLaMA、 手撕RL、手撕RLHF PPO(Notebook)、LLM加速、LLM分布式训练 入门要求:Pytorch+神经网络或深度学习基础 授课形式:每周2章节直播,5周上完前10章节 价格:私聊单独咨询 实操效果:本课程代码仓库MA-RLHF,实战多卡训练;  已全线支持 Llama-3-8B/70B SFT/DPO/PPO训练 ; ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览