今天看啥  ›  专栏  ›  大语言模型和具身智体及自动驾驶

大基础模型的幻觉问题:综述

大语言模型和具身智体及自动驾驶  · 公众号  ·  · 2024-05-23 00:38
    

文章预览

23年9月份 来自南卡大学AI研究所的 幻觉综述论文“A Survey of Hallucination in “Large” Foundation Models“,。 基础模型(FM)中的幻觉是指偏离事实情况或包含捏造的信息。本文综述广泛概述了最近旨在识别、阐明和解决幻觉问题的努力,特别关注“大型”基础模型(LFM)。该论文对LFM特有的各种幻觉现象进行了分类,并建立了评估幻觉程度的标准。还审查了减轻LFM中幻觉的现有策略,提出该领域未来研究的潜在方向。从本质上讲,本文对LFM中与幻觉相关的挑战和解决方案进行了全面的研究。 基础模型中的幻觉,是指模型产生的条件不是基于事实或准确的信息。当模型产生的文本,不是提供可靠和真实的信息,而包含了虚构、误导或完全捏造的细节、事实或主张,就会发生幻觉。 出现此问题的原因是,模型根据从训练数据中学习的模式,生成听起来合理 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览