注册
登录
专栏名称:
RandomGenerator
机器学习工程师笔记
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
传媒招聘那些事儿
·
网易:高级/资深游戏运营(魔兽)
·
17 小时前
秋叶PPT
·
别再手动做流程图!这个Excel功能,99% ...
·
昨天
前程无忧51job
·
朋友圈点赞成加班证据,雇主与打工人各有各的困局
·
2 天前
今天看啥
›
专栏
›
RandomGenerator
OpenAI o1: 合成数据与推理搜索
RandomGenerator
·
公众号
· · 2024-09-14 17:13
文章预览
趁着昨天 OpenAI o1 的发布,难得从每日忙碌的产品研发中抽出点时间来,学习跟进一下最近非常火热的 LLM 新范式。 背景简介 首先推荐阅读一下拾象的《 LLM 的范式转移:RL 带来新的 Scaling Law 》,很好地科普了一下基于 RL 的新 LLM scaling 范式。 之前我们常说的 scaling law 一般指的是 pre-train 阶段通过算力、数据、模型参数量的提升来不断提升模型智能水平。不过最近一年来看,碰到了不少瓶颈: 算力上我们受限于超大规模训练集群的各种工程挑战,例如 LLaMA 3 的 paper 里就提到他们的万卡集群每两小时就会有坏卡问题出现,所以进一步拓展到 10 万卡规模的集群目前看起来难度很大。 数据方面,文本数据达到 10-20T token 量级后,需要进一步在数量级上提升目前也比较困难了。尤其是能带来“增量收益”的复杂推理方面的数据更加稀缺。 所以大家普遍有 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
传媒招聘那些事儿
·
网易:高级/资深游戏运营(魔兽)
17 小时前
秋叶PPT
·
别再手动做流程图!这个Excel功能,99%的人都不知道,好用到爆哭!
昨天
前程无忧51job
·
朋友圈点赞成加班证据,雇主与打工人各有各的困局
2 天前
OSC开源社区
·
铁铁在XHS卖课能不能认真点,给爷整笑了
7 月前
都市现场
·
iOS18系统Bug,截图会越来越红?苹果客服回应:正在加紧进行调查修复
昨天