今天看啥  ›  专栏  ›  量化研究方法

为什么我们的大模型会“说胡话”?

量化研究方法  · 公众号  ·  · 2024-09-25 17:00

文章预览

来源:CSDN “幻觉”(Hallucination),现在已经是大语言模型领域无人不知、无人不晓的热词。我们在和 ChatGPT 等聊天机器人对话的时候,有时会遇到生成式人工智能根据提示词生造出一些事实的情况。通俗点说,就是现在的 AI 都有概率「说胡话」,聊着聊着就和你侃大山,答非所问。 张飞哭晕在厕所  最近,一篇关于幻觉问题的论文就在 Hacker News 上引起了激烈讨论,很多开发者聊着聊着就聊到了哲学问题上: 而这篇论文的标题也非常具有冲击性——《幻觉不可避免:大型语言模型的内在局限性》(Hallucination is Inevitable: An Innate Limitation of Large Language Models),作者是隶属于新加坡国立大学计算学院的 Ziwei Xu, Sanjay Jain 和 Mohan Kankanhalli。这篇论文试图证明大语言模型(LLMs)中的幻觉无法完全消除,即使采用现有的幻觉缓解方法也无法完全解决。 论文 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览