注册
登录
专栏名称:
江大白
专业有趣的AI内容平台,关注后回复【算法】,获取45家大厂的《人工智能算法岗江湖武林秘籍》
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
群学书院
·
读懂魏晋风流:最黑暗的时代,也是最灿烂的时代
·
昨天
视觉志
·
七言 | 周末,更寂寞。
·
昨天
天玑-无极领域
·
不惜一切代价,谁是代价?让你顾全大局,谁在局 ...
·
4 天前
舰大官人
·
癸水今晚跌停了。不仅跌停了,而且还ST了。命 ...
·
4 天前
天玑-无极领域
·
为何要成为劣质用户?影视平台SVIP,一年两 ...
·
5 天前
今天看啥
›
专栏
›
江大白
大模型算法二次开发,基本思路详细拆解
江大白
·
公众号
· · 2024-09-13 08:00
文章预览
以下 文 章来源于微信公众号: 吃果冻不吐果冻皮 作者: StormBlafe 链接: https://mp.weixin.qq.com/s/nDOQQFJIQpBJv0Ckr0S8hA 本文仅用于学术分享,如有侵权,请联系 后 台作删文处理 导读 随着众多大模型相继问世,大模型二次开发、大模型微调成为一项热门技术。本文为大家总结了大模型二次开发的基本方法与思路,希望对大家有所帮助。 开发方法分类 1、领域知识注入:Continue PreTraining(增量预训练),一般垂直大模型是基于通用大模型进行二次的开发,需要用领域内的语料进行继续预训练。 2、知识召回(激发):SFT( Supervised Finetuning,有监督微调), 通过SFT可以激发大模型理解领域内的各种问题并进行回答的能力。 3、基础偏好对齐:奖励模型(RM)、强化学习(RL),可以让大模型的回答对齐人们的偏好,比如行文的风格。 4、高阶偏好对齐:RLHF(人类反馈强化 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
群学书院
·
读懂魏晋风流:最黑暗的时代,也是最灿烂的时代
昨天
视觉志
·
七言 | 周末,更寂寞。
昨天
天玑-无极领域
·
不惜一切代价,谁是代价?让你顾全大局,谁在局内?勒紧裤腰带过日子-20241017112737
4 天前
舰大官人
·
癸水今晚跌停了。不仅跌停了,而且还ST了。命运的无常与残酷,就是-20241016234033
4 天前
天玑-无极领域
·
为何要成为劣质用户?影视平台SVIP,一年两三百,直接开,就图一-20241016103817
5 天前
人工智能那点事
·
男子称试驾问界M5撞上公交车,销售人员演示智驾功能,双手离开方向盘,涉事门店回应
1 月前