文章预览
作者: 汤泽成 (知乎:ZetangForward) 链接: https://zhuanlan.zhihu.com/p/2993874959 当前,越来越多的研究指出,长文本模型(Long-context Model, LCM)在输出时可能会遇到多种问题,其中最为突出的是幻觉(Hallucination)和指令不遵循(Instruction Unfollowing)现象。以下面的示例来说明: 图1:长文本模型幻觉(Hallucination)与指令跟随失效(Instruction Unfollowing)问题 首先,模型会接收到一段详细的背景信息,例如关于美剧《老友记》(Friends)的某个情节的描述。然后,可能会有用户提出这样的问题:“在《老友记》中,Rachel和Monica的职业分别是什么?”根据背景信息, 正确的回答应该是Rachel是一名服务员(waitress),而Monica是一名厨师(chef) 。然而,长文本模型有时会出现幻觉现象,错误地告诉你Rachel是一名护士(nurse),或者完全忽视问题,转而讲述一段毫不相关
………………………………