文章预览
⇧ 点 蓝色 字关注 “AI小小将” 去年10月份,微软一篇论文 CodeFusion: A Pre-trained Diffusion Model for Code Generation 爆了一个惊天大瓜, 那就是OpenAI的ChatGPT参数量只有20B 。 对于大模型来说,20B的参数量真的不算太大,因为之前的GPT-3都有175B的参数量了。如果只靠20B的参数量就能做到ChatGPT这样的效果,那么就太经济了。但是随后,微软辟谣并撤回了这篇工作: 并且撤稿声明上指出:这里ChatGPT的参数量是来自一篇博客的猜测,这里漏了这个引用,而且作者们也没有这个信息的直接知识或验证,这可能会导致公众混淆。 https://www.forbes.com/sites/forbestechcouncil/2023/02/17/is-bigger-better-why-the-chatgpt-vs-gpt-3-vs-gpt-4-battle-is-just-a-family-chat/?sh=5646bee5b658 不过考虑到微软是OpenAI的大金主,很多人估计微软肯定是知道ChatGPT的参数量的,所以ChatGPT的参数量很大可能是20B。 今天,类
………………………………