专栏名称: 夕小瑶科技说
这里有自然语言处理、机器学习、算法的入门指导、科普与深度干货,有小夕的回忆与日常,还有最重要的:萌!气!
今天看啥  ›  专栏  ›  夕小瑶科技说

Scaling Law撞南墙,MIT发现另一条路:测试时训练,推理能力最高升至5.8倍

夕小瑶科技说  · 公众号  ·  · 2024-11-12 16:34

文章预览

 夕小瑶科技说 分享  作者 | 量子位 o1不是通向大模型推理的唯一路径! MIT的新研究发现, 在测试时对大模型进行训练 ,可以让推理水平大幅提升。 在挑战超难的ARC任务时,准确率最高可提升至原来的5.83倍。 这样的表现不仅优于GPT-4和Claude,如果与其他推理方法相结合,还能超越人类的平均水准。 OpenAI o1团队成员 Noam Brown 表示,o1的大规模计算可能不是最好的方法,很高兴看到有学者在提高推理能力上探索新的方法。 在测试中训练模型 不同于传统的先训练后测试模式,测试时训练(Test-Time Training,TTT)在部署阶段面对新的测试样本时, 不直接用训练好的模型去推理 。 在推理之前, 测试样本自身携带的信息 ,会通过快速的训练过程被用于调整模型参数。 总体来说,TTT过程中一共有三个关键阶段—— 训练数据生成、模型适应范式设计以及 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览