连接人工智能技术人才和产业人才的交流平台
目录
相关文章推荐
爱可可-爱生活  ·  DeepSeek ... ·  3 天前  
今天看啥  ›  专栏  ›  机器学习研究组订阅

离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞

机器学习研究组订阅  · 公众号  · AI  · 2024-12-06 18:29
    

文章预览

上个月刚刚离开OpenAI的Lilian Weng,发布了离职后的首篇博客! 在当时的离职信里,她承诺将付出更多的时间来更新博客。 果不其然,感恩节假期刚刚结束,她的博客马上就营业了,更新了一篇关于奖励欺骗问题的文章。 谷歌DeepMind高级员工RS Shane Gu评论道「Great writing!」,还给了一个引用论文的小建议。 伯克利的AI博士生Micah Carroll也赞道「Great blogpost!」,顺便还介绍了一下他们最近的奖励欺骗研究。 那么,什么是奖励欺骗呢? 奖励欺骗(Reward Hacking)是指强化学习(RL)智能体通过利用奖励函数中的漏洞或模糊性,获得高奖励但没有真正学习或完成预期任务的现象。 这个概念起源于2016年开创性论文「Concrete Problems in AI Safety」中提出的一系列关于AI安全的开放性研究问题。 奖励欺骗的存在是因为RL环境通常并不完美,毕竟精确地定义奖励函数本身也 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览