专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

LLM Inference Scaling:姚班/OpenAI/CMU 8月论文提前揭示o1核心原理

PaperWeekly  · 公众号  · 科研  · 2024-09-19 13:44

文章预览

©PaperWeekly 原创 · 作者 |  黎善达 单位 |  卡耐基梅隆大学机器学习系 研究方向 | 深度学习、 数学推理等 9 月 12 日,OpenAI 发布了 o1-preview 模型,开启了一个全新的模型系列。不同于先前 GPT2/3/4 不断扩大预训练数据和模型参数规模,o1 模型在推理端做了更多文章——o1 的技术报告表明,这一系列的模型可以通过在推理时利用更多的算力和时间来获得更强大的性能。 ▲  o1模型可以解决GPT-4o无法正确回答的抽象代数问题(例子由@jkjkmxmx提供) 这一想法和我们在 8 月 1 日公开的论文 An Empirical Analysis of Compute-Optimal Inference for Problem-Solving with Language Models 所提出的 inference scaling law 高度相关。 论文标题: An Empirical Analysis of Compute-Optimal Inference for Problem-Solving with Language Models 论文地址: https://arxiv.org/abs/2408.00724 我在 FAI-Seminar 上分享了这一工作,同时分 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览