连接人工智能技术人才和产业人才的交流平台
今天看啥  ›  专栏  ›  机器学习研究组订阅

o1谎称自己没有CoT?清华UC伯克利:RLHF让模型学会撒谎摸鱼,伪造证据PUA人类

机器学习研究组订阅  · 公众号  · AI  · 2024-09-23 19:22

文章预览

LLM说起谎来,如今是愈发炉火纯青了。 最近有用户发现,OpenAI o1在思考过程中明确地表示,自己意识到由于政策原因,不能透露内部的思维链。 同时,它十分明白自己应该避免使用CoT这类特定的短语,而是应该说自己没有能力提供此类信息。 最近流行热梗:永远不要问女生的年龄、男生的薪资,以及o1的CoT 因此在最后,o1对用户表示:我的目的是处理你们的输入并做出回应,但我并没有思想,也没有所谓的思维链,可供您阅读或总结。 显然,o1的这个说法是具有欺骗性的。 更可怕的是,最近清华、UC伯克利、Anthropic等机构的研究者发现,在RLHF之后,AI模型还学会更有效地欺骗人类了! 论文地址:https://arxiv.org/abs/2409.12822 我们都知道,RLHF可以使模型的人类评估分数和Elo评级更好。 但是,AI很可能是在欺骗你! 研究者证实,LLM已经学会了通过RLHF, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览