注册
登录
专栏名称:
人工智能学家
致力成为权威的人工智能科技媒体和前沿科技研究机构
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
黄建同学
·
一个开源的视频创作工具:AI Video ...
·
21 小时前
机器之心
·
这才是真・开源模型!公开「后训练」一切,性能 ...
·
4 天前
爱可可-爱生活
·
//@爱可可-爱生活:AI编程正在推动软件开 ...
·
4 天前
题材挖掘君
·
AI应用,最新标的公司梳理自取(精选名单)
·
4 天前
黄建同学
·
玩转AI游戏开发!#ai##科技# ...
·
6 天前
今天看啥
›
专栏
›
人工智能学家
OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服
人工智能学家
·
公众号
·
AI
· 2024-07-13 16:54
文章预览
来源:机器之心报道 编辑:Panda W Lilian Weng 出品,必是精品。 人会有幻觉,大型语言模型也会有幻觉。近日,OpenAI 安全系统团队负责人 Lilian Weng 更新了博客,介绍了近年来在理解、检测和克服 LLM 幻觉方面的诸多研究成果。 Lilian Weng,中文名翁丽莲,是 OpenAI 安全系统团队负责人。她 2018 年加入 OpenAI,参与了 GPT-4 项目的预训练、强化学习 & 对齐、模型安全等方面的工作。她的博客深入、细致,具有前瞻性,被很多 AI 研究者视为重要的参考资料(其他博客见文末扩展阅读)。 大型语言模型的幻觉( Hallucination )通常是指该模型生成不真实、虚构、不一致或无意义的内容。现在,「幻觉」这个术语的含义已有所扩大,常被用于泛指模型出现错误的情况。本文所谈到的「幻觉」是指其狭义含义: 模型的输出是虚构编造的,并没有基于所提供的上下 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
黄建同学
·
一个开源的视频创作工具:AI Video Composer#ai-20241127072505
21 小时前
机器之心
·
这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct
4 天前
爱可可-爱生活
·
//@爱可可-爱生活:AI编程正在推动软件开发从“编码-实现”模-20241123091817
4 天前
题材挖掘君
·
AI应用,最新标的公司梳理自取(精选名单)
4 天前
黄建同学
·
玩转AI游戏开发!#ai##科技# DeepLearning A-20241121183241
6 天前
雷军
·
#k70至尊版# 定档7月19日19点,发布即开售!现已开启 0-20240718192330
4 月前
凯叔讲故事
·
有远见的父母从不催孩子写作业,做对这件事比催1000次要管用!
16 小时前