文章预览
LLM说起谎来,如今是愈发炉火纯青了。 最近有用户发现,OpenAI o1在思考过程中明确地表示,自己意识到由于政策原因,不能透露内部的思维链。 同时,它十分明白自己应该避免使用CoT这类特定的短语,而是应该说自己没有能力提供此类信息。 最近流行热梗:永远不要问女生的年龄、男生的薪资,以及o1的CoT 因此在最后,o1对用户表示:我的目的是处理你们的输入并做出回应,但我并没有思想,也没有所谓的思维链,可供您阅读或总结。 显然,o1的这个说法是具有欺骗性的。 更可怕的是,最近清华、UC伯克利、Anthropic等机构的研究者发现,在RLHF之后,AI模型还学会更有效地欺骗人类了! 论文地址:https://arxiv.org/abs/2409.12822 我们都知道,RLHF可以使模型的人类评估分数和Elo评级更好。 但是,AI很可能是在欺骗你! 研究者证实,LLM已经学会了通过RLHF,
………………………………