注册
登录
专栏名称:
机器学习研究组订阅
连接人工智能技术人才和产业人才的交流平台
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
爱可可-爱生活
·
[CL]《Synthetic Data ...
·
7 小时前
爱可可-爱生活
·
晚安~ #晚安# -20250126224457
·
15 小时前
爱可可-爱生活
·
【[226星]backend-api-kit ...
·
23 小时前
爱可可-爱生活
·
【[134星]LangFair:一个Pyth ...
·
23 小时前
爱可可-爱生活
·
DeepSeek ...
·
3 天前
今天看啥
›
专栏
›
机器学习研究组订阅
离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞
机器学习研究组订阅
·
公众号
·
AI
· 2024-12-06 18:29
文章预览
上个月刚刚离开OpenAI的Lilian Weng,发布了离职后的首篇博客! 在当时的离职信里,她承诺将付出更多的时间来更新博客。 果不其然,感恩节假期刚刚结束,她的博客马上就营业了,更新了一篇关于奖励欺骗问题的文章。 谷歌DeepMind高级员工RS Shane Gu评论道「Great writing!」,还给了一个引用论文的小建议。 伯克利的AI博士生Micah Carroll也赞道「Great blogpost!」,顺便还介绍了一下他们最近的奖励欺骗研究。 那么,什么是奖励欺骗呢? 奖励欺骗(Reward Hacking)是指强化学习(RL)智能体通过利用奖励函数中的漏洞或模糊性,获得高奖励但没有真正学习或完成预期任务的现象。 这个概念起源于2016年开创性论文「Concrete Problems in AI Safety」中提出的一系列关于AI安全的开放性研究问题。 奖励欺骗的存在是因为RL环境通常并不完美,毕竟精确地定义奖励函数本身也 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
爱可可-爱生活
·
[CL]《Synthetic Data Can Mislead -20250127055750
7 小时前
爱可可-爱生活
·
晚安~ #晚安# -20250126224457
15 小时前
爱可可-爱生活
·
【[226星]backend-api-kit:轻松打造可扩展、可-20250126135748
23 小时前
爱可可-爱生活
·
【[134星]LangFair:一个Python库,用于评估大型-20250126140124
23 小时前
爱可可-爱生活
·
DeepSeek AI在Transformer/GPT架构上做出-20250124080026
3 天前
CFC商品策略研究
·
【建投航运专题】布朗运动还是早已有迹可循-如何看待近期波动行情?
8 月前
电动星球
·
李想回应裁员、纯电新品2025年再见,MEGA给L8让位?
8 月前
针灸匠张宝旬
·
一碗香浓解腻汤,和胃健脾,唤醒你的胃动力(附视频)
4 月前
晨哨并购
·
【活动报名】聚焦新加坡 + 科技,领航中企出海新征程——出海系列活动9
1 月前