文章预览
MLNLP 社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。 社区的愿景 是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。 转载自 | PaperWeekly 作者 | 孙浩 单位 | 剑桥大学博士生 研究方向 | 强化学习、IRLxLLM ▲ version 2024.10.15 论文预览版本: http://sites.google.com/view/rewardmodels 上周给论文加上了一个之前没来得及写的 theorem,现在基本完成了一个自己比较满意的版本,贴出来之前还会有一些流程要走,所以先在这里先写一篇文章。如果对论文原文有兴趣的话欢迎发邮件到 hs789@cam.ac.uk 联系我们。 本文会讨论以下内容: 1. Bradley-Terry Model 为什么可以被拿来做 Reward Modeling,其背后的依据,假设,逻辑是什么? 2. 做 Reward Modeling 这件事,
………………………………