专栏名称: 黄建同学
数码博主 超话主持人(ChatGPT超话) 头条文章作者 我的学习笔记,关注AI+新能源
今天看啥  ›  专栏  ›  黄建同学

关于模型依赖的数据是不是要一直无限地scale up(变大)的研-20240629172124

黄建同学  · 微博  · AI  · 2024-06-29 17:21

文章预览

2024-06-29 17:21 本条微博链接 关于模型依赖的数据是不是要一直无限地scale up(变大)的研究和思考↓ #ai# #程序员# —— from Yujia Qin 是时候把数据scale down了 LLaMA3告诉大家一个悲观的现实:模型架构不用动,把数据量从2T加到15T就可以暴力出奇迹。这一方面告诉大家基座模型长期来看就是大厂的机会;另一方面,考虑到scaling law的边际效应,我们想继续看到下一代模型能够有GPT3- GPT4的提升,很可能需要再洗出少说10个数量级 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览