文章预览
不知道你有没有过这样的经历:碰到一道做不出的数学题,于是丢给ChatGPT。 结果一通生成之后,ChatGPT的「不知所云」让你从之前的略有头绪瞬间变成完全迷茫。不管它是对是错,反正人类是看不懂了。 提高LLM的数学和推理能力是最近研究关注的焦点,但同样重要的是,确保模型生成可理解的文本。 否则即使答案正确,99%的人类都理解不了,也不能让LLM真正协助我们处理复杂任务。 OpenAI近期发表的一篇论文就旨在研究并解决模型性能和可读性(legibility)之间的平衡。 论文地址:https://openai.com/index/prover-verifier-games-improve-legibility/ 和之前发出来的两篇一样,这次又是Jan Leike的库存作品,但共同一作是两位在职研究员Jan Hendrik Kirchner和Yining Chen。 估计超级对齐团队的「遗作」够OpenAI发一阵子了 通过优化提升可读性 论文发现,如果仅仅针对答案正确性
………………………………