注册
登录
专栏名称:
吃果冻不吐果冻皮
专注于AI工程化(LLM、MLOps、LLMOps、RAG、Agent)落地。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
人生研究所
·
丢掉你的「打底衫」吧!秋冬流行这么穿,显瘦又时髦!
·
3 小时前
医脉通临床指南
·
脑卒中的中西医结合防治,18条指南推荐意见一览!
·
昨天
贝壳社
·
从科学家到企业家的转变与进阶|贝壳社创始人兼 ...
·
2 天前
蒲公英Ouryao
·
FDA审评:Capivasertib片的CM ...
·
2 天前
医学界智库
·
最新中国医院排行榜来了!
·
6 天前
今天看啥
›
专栏
›
吃果冻不吐果冻皮
LLM数据合成之后训练篇
吃果冻不吐果冻皮
·
公众号
· · 2024-10-15 10:10
文章预览
原文:https://zhuanlan.zhihu.com/p/715155768 先对目前出现的一些后训练的数据合成方法做一个简单且不严谨的,且尽可能贴合实践场景的分类: 第一类,利用GPT4(借指强大的LLM)来直接生成pair,比如self-instruct 和evol-instrcuct等。这类方法更适合于当prompt 和response都匮乏,但是在这个场景下GPT4的效果又很好,更像是一种数据蒸馏。 第二类,利用GPT4来生成问题或者答案,更多的是有了raw data作为答案,要LLM去生成一个对应的问题,这类方法更适合于某一些特定的task,比如QA, MATH等。或者是那些,我们认为GPT4生成的答案并不满意,但我们目前手上有一些corpus,这时候我们就可以让GPT4去生成对应的问题或者prompt。因此,有一些工作就会特地在做sft的时候,加入 answer -> question的任务,让模型具有这方面指令撰写的能力,如果效果好的话,理论上就能有源源不断 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
人生研究所
·
丢掉你的「打底衫」吧!秋冬流行这么穿,显瘦又时髦!
3 小时前
医脉通临床指南
·
脑卒中的中西医结合防治,18条指南推荐意见一览!
昨天
贝壳社
·
从科学家到企业家的转变与进阶|贝壳社创始人兼董事长姜慧霞应邀出席良渚实验室双创营并作主旨演讲
2 天前
蒲公英Ouryao
·
FDA审评:Capivasertib片的CMC控制策略(2)
2 天前
医学界智库
·
最新中国医院排行榜来了!
6 天前
远峰电子
·
【华金电子孙远峰团队-持续推荐华峰测控】24Q2业绩环比显著提升,以期STS8600验证&海外市场拓展
2 月前
上海高招发布
·
《高招周刊》第一期报纸10月11日正式出版!开卡倒计时,这件事儿你做了吗?
1 月前