专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
目录
相关文章推荐
今天看啥  ›  专栏  ›  AINLPer

请不要忽略Bert!Oslo| 因果GPT+ 掩膜Bert,混合预训练建模:GPT-Bert,更强大

AINLPer  · 公众号  ·  · 2024-11-05 22:05

文章预览

点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 引言 当前主流大模型架构基本上都GPT架构,即Decoder架构,又称因果语言模型(CLM);然而就在两年前,NLP的主流架构却是Bert模型架构,即Encoder架构,又称掩蔽语言模型(MLM),随着时间的发展人们对Encoder架构提及的越来越少了,尤其当你参加NLP算法面试的时候,很大概率会被问到:为什么当前大模型都是Decoder架构? 然而,我们也不能忽略Bert模型, 「最新的研究表明,类似BERT的模型在文本生成能力上与类似GPT的模型同样强大」 。然而,当这两种类型的模型在一个共同的评估标准下进行比较——即生成式上下文学习时,它们仍然表现出明显的差异,在不同的领域中互有优势。 今天给大家分享的这篇文章, 「尝试将将掩蔽语言建模与因果语言建模相结合」 ,实验结果表明混合预训练的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览