文章预览
前言: 看论文就像是一次美食之旅,每一篇论文都是一道不同的菜肴。有些论文会让你大快朵颐,有些论文会让你欲罢不能,而有些论文则会让你咬牙切齿。但是别忘了,只有尝试了各种不同的菜肴,才能成为一个真正的“吃货”哦! 1. 合成连续预训练 标题: Synthetic continued pretraining 机构: 斯坦福大学 关键词: 合成连续预训练、EntiGraph、领域特定文档、数据扩充 作者: Zitong Yang, Neil Band, Shuangping Li 分析: 本文讨论了通过在大规模、无结构的互联网文本上进行预训练,大型语言模型能够获取大量关于世界知识的情况。然而,这种知识获取的方式存在数据效率低下的问题,即为了学习一个特定的事实,模型必须被训练在数百到数千种不同表现形式中。在对领域特定的文档进行微调时,面对每个事实可能出现的少频甚至单次问题
………………………………