专栏名称: 夕小瑶科技说
这里有自然语言处理、机器学习、算法的入门指导、科普与深度干货,有小夕的回忆与日常,还有最重要的:萌!气!
今天看啥  ›  专栏  ›  夕小瑶科技说

Ilya承认Scaling Law到头了,Meta和谷歌寻找替代o1的方法

夕小瑶科技说  · 公众号  ·  · 2024-11-13 18:37

文章预览

夕小瑶科技说 原创 作者 | 小鹿 近期,全球科技界的目光都集中在OpenAI即将推出的下一代模型上,究竟会是o2还是GPT-5? o2代表了全新的训练范式,而GPT-5则代表了继续Scaling Law的路线。 实际上,这个问题已经在11月份的时候,有Reddit网友向Altman提出过: Altman最新谈到OpenAI的动态时, 与OpenAI寻求新路径的努力是相呼应的--下一代技术不会是GPT的简单迭代 。 为什么不再是GPT-5了? 首先,GPT系列模型,即生成式预训练Transformer模型,其核心特点是依靠数据驱动的Scaling Law来推动性能的提升。 论文《Scaling Laws for Neural Language Models》提出语言建模性能随着模型大小、数据集大小和用于训练的计算量的增加而平稳提升。为了获得最佳性能,这三个因素必须同时扩大。当不受其他两个因素的限制时,经验性能与每个单独因素之间具有幂律关系。 然而,随着技术 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览