专栏名称: 包包算法笔记
数据挖掘、机器学习、深度学习、Kaggle竞赛分享与交流。
今天看啥  ›  专栏  ›  包包算法笔记

大模型 VS 小模型

包包算法笔记  · 公众号  ·  · 2024-09-05 09:58

文章预览

首先,我们思考一个问题,为什么 qwen2 基本上是当下最受欢迎的开源模型? 说实话,相比于 deepseek、llama、minicpm 这些诚意满满的技术报告,qwen2 的技术报告稍显一些“小家子气”,并没有提及到关键的技术细节。 然而,qwen2 提供给开源社区的“全家桶”套餐,又是多长的技术报告也比不上的。 对 llm 的研究者来说, 用相同 tokenizer,相同的 7T pretrain_data 得到的“一簇小 llm”,其研究价值远远超过 Qwen2-72B 本身! 知乎: https://zhuanlan.zhihu.com/p/714399961 接下来,我们带着两个基本概念进入正文:  同源小模型:同 tokenizer,同训练数据下得到的 size 较小的llm  小模型:重点在于“小”,推理快或者本身就是分类模型,怎么训的完全无所谓。较小 size 的 llm,BERT,RoBERTa,Xgboost,LR 等等都可以称作小模型 同源小模型是大模型的实验场 scaling law 告诉我们: ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览