专栏名称: 机器之心
专业的人工智能媒体和产业服务平台
今天看啥  ›  专栏  ›  机器之心

OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了

机器之心  · 公众号  · AI  · 2024-07-18 13:07
    

文章预览

机器之心报道 机器之心编辑部 如果 AI 模型给的答案一点也看不懂,你敢用吗? 随着机器学习系统在更重要的领域得到应用,证明为什么我们可以信任它们的输出,并明确何时不应信任它们,变得越来越重要。 获得对复杂系统输出结果信任的一个可行方法是,要求系统对其输出产生一种解释,这种解释对人类或另一个受信任的系统来说是可读的,即可以完全理解以至于任何可能的错误都可以被发现。例如,为了建立对司法系统的信任,我们要求法院提供清晰易读的书面意见,解释并支持其决策。 对于大型语言模型来说,我们也可以采用类似的方法。   不过,在采用这种方法时,确保语言模型生成的是易于理解的文本,这件事非常重要,尤其是在处理数学、编码这样的复杂任务时。 如下图所示,你让 AI 写一个快速排序算法,AI 很快就写出来了, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览