专栏名称: 大数据文摘
普及数据思维,传播数据文化
今天看啥  ›  专栏  ›  大数据文摘

要想赚钱,AI模型该大该小?贾扬清:论AI模型经济学的技巧

大数据文摘  · 公众号  · 大数据  · 2024-08-05 16:00

文章预览

大数据文摘受权转载自AI科技评论 作者丨刘洁 编辑丨岑峰 最近的AI社区,关于模型规模的讨论有些活跃。 一方面,此前在大模型开发奉为“圣经”的Scaling Law,似乎正在褪去光环。去年大家还在猜测GPT-5的规模“可能会大到想不到”,现在这种讨论几乎绝迹。大神Andrej Karpathy,则是在感慨大模型规模正在“倒退”。 另一方面,近期市场上性能优秀的小型模型层出不穷,参数规模、任务处理、反应速度、安全性能,各公司在不同方面卷了又卷。 究竟是往大做探索极限,还是往小做迎合市场? 这最终汇总成一个问题:在这样模型快速更迭的市场中,要怎么才能把LLM模型的商业价值最大化? 01 唯快不破的模型业态 最近发起讨论的是X.ai创始成员之一的Toby Pohlen。他认为如果模型以指数级速度改进,那么训练模型的价值也会以指数级速度折旧。这也导致 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览