今天是2023年12月5日,星期二,北京,天气晴。我们再来看看大模型幻觉的一个框架性的工作,最近的工作《Minimizing Factual Inconsistency and Hallucination in Large Language Models》:https://arxiv.org/pdf/2311.13878,提出了一个多阶段框架,首先生成理由,然后验证和完善不正确的理由,并将其作为生成答案的辅助参考,从而提升模型性能。该工作提出的几个步骤很有趣,有些cot中,step by step的意思,供大家一起参考。一、整体技术方案工作《Minimizing Factual Inconsistency and Hallucination in Large Language Models》提出的多阶段框架由五个部分组成,包括混合检索器(HybridRetriever)、提示引擎(PromptEngine)、理由生成器(RationaleGenerator)、理由验证器(Rationale Verifier and Refiner)、答案生成器(Answer Generator)。其中:混合检索器(HybridRetriever)根据用户的查询,从各种数据源(如文
………………………………