机器学习、深度学习、数据挖掘等人工智能领域的技术实战干货文章,这里都有!分享从业经验是我们的不变的准则……
今天看啥  ›  专栏  ›  机器学习算法工程师

微软新论文大瓜:o1参数300B,GPT-4o参数200B?

机器学习算法工程师  · 公众号  ·  · 2025-01-02 09:21
    

文章预览

⇧ 点 蓝色 字关注 “AI小小将” 去年10月份,微软一篇论文 CodeFusion: A Pre-trained Diffusion Model for Code Generation 爆了一个惊天大瓜, 那就是OpenAI的ChatGPT参数量只有20B 。 对于大模型来说,20B的参数量真的不算太大,因为之前的GPT-3都有175B的参数量了。如果只靠20B的参数量就能做到ChatGPT这样的效果,那么就太经济了。但是随后,微软辟谣并撤回了这篇工作: 并且撤稿声明上指出:这里ChatGPT的参数量是来自一篇博客的猜测,这里漏了这个引用,而且作者们也没有这个信息的直接知识或验证,这可能会导致公众混淆。 https://www.forbes.com/sites/forbestechcouncil/2023/02/17/is-bigger-better-why-the-chatgpt-vs-gpt-3-vs-gpt-4-battle-is-just-a-family-chat/?sh=5646bee5b658 不过考虑到微软是OpenAI的大金主,很多人估计微软肯定是知道ChatGPT的参数量的,所以ChatGPT的参数量很大可能是20B。 今天,类 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览