今天看啥  ›  专栏  ›  zartbot

ScalingLaw终结了么?

zartbot  · 公众号  ·  · 2024-11-17 13:04

文章预览

暴论为先:  Inference ScalingLaw的实质是:  高阶范畴视角下的Self-Prompt. 是不是能够Scaling,需要模型厂商尽快的去做SAE并开源数据. 从高阶范畴的角度来构建另一个维度的Attention才是整个大模型突破的方向. 大概的故事线是: The Information报道, OAI的训练和模型进化速度变缓,导致GPT5难产已成定局 然后又有某个人在X上说, 似乎另一家在训练的时候遇到了一个未曾遇到的Huge Wall Bloomberg随后把范围扩大到OAI,Anthropic,Google, 发现大家都在推迟新模型发布. 但是AI社区内大家还是有很强的信心的, 特别是对推理的ScalingLaw 然后就是Ilya Suskever出来补刀: I told you so 有争议的地方必然有Lecun, 也来I told you so Anthropic CEO Dario出来押注ScalingLaw还继续存在 Sam Altman则直接嘴硬: there is no wall 突然想到去年元旦时读过的《献给阿尔吉侬的花束》, 它是一本科幻小说, 故事叙述一名心智障碍 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览