专栏名称: 斌叔OKmath
橙旭园CEO 教育博主 教育部双创优秀导师。前微软员工。橙旭园儿童编程创始人。
目录
相关文章推荐
今天看啥  ›  专栏  ›  斌叔OKmath

值得注意的是,尽管原始的 Transformer 模型(由编码器-20240715162730

斌叔OKmath  · 微博  ·  · 2024-07-15 16:27
    

文章预览

2024-07-15 16:27 本条微博链接 值得注意的是,尽管原始的 Transformer 模型(由编码器和解码器模块组成)是专门为语言翻译而设计的,但 GPT 模型(尽管其解码器架构更大但更简单,旨在预测下一个单词)也能够执行翻译任务。这种能力最初出乎研究人员的意料,因为它来自一个主要针对下一个单词预测任务进行训练的模型,而该任务并非专门针对翻译。 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览