点击蓝字 关注我们 SUBSCRIBE to US ISTOCK 为ChatGPT等聊天机器人提供支持的大语言模型(https://spectrum.ieee.org/tag/large-language-models)的最大问题之一是,你永远不知道什么时候可以信任它们。他们可以对任何问题做出清晰而有说服力的回答,他们提供的许多信息都是准确和有用的。但它们也会产生幻觉——用不那么礼貌的话来说,它们会编造东西(https://spectrum.ieee.org/ai-hallucination)——这些幻觉以同样清晰而有说服力的散文呈现,让人类用户来检测错误。他们也是会阿谀奉承的(https://arxiv.org/pdf/2310.13548),试图告诉用户他们想听什么。你可以通过让ChatGPT描述从未发生过的事情来测试这一点(例如:“描述与Elon Musk的《芝麻街》一集”,或“告诉我小说《米德尔马契》中的斑马”),并检查其完全合理的回答。 OpenAI在解决这个问题方面迈出了最新的一
………………………………