一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
目录
今天看啥  ›  专栏  ›  深度学习自然语言处理

DPO,RM,RLHF 傻傻分不清楚

深度学习自然语言处理  · 公众号  ·  · 2024-09-10 17:27

文章预览

知乎 :曹宇 链接 :https://zhuanlan.zhihu.com/p/718913850 编辑 :AI椰青 | 深度学习自然语言处理 公众号 纯学术分享,侵删 DPO 的论文引用最近已经破千了,成了斯坦福的Chelsea Finn组的机器人超猛PhD学生R.M. Rafailov的第一被引论文。又由于第二梯队的大模型频繁提及DPO的变种,DPO+RM的用法未来估计机器人界的思潮对于LLM的正向影响不会削弱。 按照我平时使用的体验,我们可以将当前的主要头部三强划分为第一梯队,头部开源三强划分成为第二梯队,再加上我一直比较关心的应用侧玩家Apple: 可以发现几点: 超头部玩家的对齐策略清一色的还是 RL 类方法。 开源头部玩家采用 DPO 的较多。 不论是什么 PO,基本都是采用了和 RM 结合的 xPO + RM 的做法,没有纯原始 DPO 的玩法。 大多数对齐玩家都使用了多阶段对齐的策略。 这个其实就让很多小伙伴很疑惑了,明明 DP ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览