注册
登录
专栏名称:
量子位
վ'ᴗ' ի 追踪AI行业和技术动态,这里更快一步!关注我们,回复“今天”,更多大新闻等你来发现
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
爱可可-爱生活
·
[LG]《Non-Adversarial ...
·
4 天前
爱可可-爱生活
·
本文揭示了大型语言模型在指令微调中并非总是“ ...
·
4 天前
爱可可-爱生活
·
本文提出了一种基于快速响应的LLM越狱防御新 ...
·
5 天前
爱可可-爱生活
·
本文构建了首个大规模结构化播客数据集SPoR ...
·
5 天前
今天看啥
›
专栏
›
量子位
免训练大模型知识编辑,吸收新数据更高效|EMNLP'24
量子位
·
公众号
·
AI
· 2024-10-29 13:10
文章预览
阿里安全 投稿 量子位 | 公众号 QbitAI 让大模型能快速、准确、高效地吸收新知识! 被EMNLP 2024收录的一项新研究,提出了一种检索增强的连续提示学习新方法,可以 提高知识终身学习的编辑和推理效率 。 模型编辑旨在纠正大语言模型中过时或错误的知识,同时不需要昂贵的代价进行再训练。终身模型编辑是满足LLM持续编辑要求的最具挑战性的任务。 之前的工作主要集中在单次或批量编辑上,由于灾难性的知识遗忘和模型性能的下降,这些方法在终身编辑场景中表现不佳。尽管基于检索的方法缓解了这些问题,但它们受到将检索到的知识集成到模型中的缓慢而繁琐的过程的阻碍。 而名为 RECIPE 的最新方法,它首先 将知识描述转换为简短且信息丰富的连续提示的token表示 ,作为LLM输入查询嵌入的前缀,有效地细化基于知识的生成过程。 它还集成了 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
爱可可-爱生活
·
[LG]《Non-Adversarial Inverse Rei-20241118054418
4 天前
爱可可-爱生活
·
本文揭示了大型语言模型在指令微调中并非总是“更好的教师”这一反直-20241118055923
4 天前
爱可可-爱生活
·
本文提出了一种基于快速响应的LLM越狱防御新范式,通过“越狱扩增-20241117064706
5 天前
爱可可-爱生活
·
本文构建了首个大规模结构化播客数据集SPoRC,并通过对该数据集-20241117070156
5 天前
扩展迷EXTFANS
·
fans聊 | 又到开学季,你曾碰到过有什么特别牛逼习惯的室友吗?
2 月前