文章预览
点击下方 卡片 ,关注“ 自动驾驶之星 ” 这里有一群奋斗在自动驾驶量产第一线的小伙伴等你加入 作者:叫我Alonzo就好了(已授权原创) 编辑:AI生成未来 链接:https://www.zhihu.com/question/668261069/answer/3696728739 LLama 3.2正式在Meta Connect 2024大会上亮相。 Meta也是第一时间在官方放出了LLama 3.2的技术报告,感兴趣的朋友可以移步: https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices Llama 3.2本次发布最为引人注目的是两大主题:多模态模型(multimodal models)和轻量级模型。从宣传海报上我们可以看出,multimodal models的模型规模包含11B、90B,而小模型包含1B、3B的数量级。 这里个人作个猜测,对于11B的multimodal model,如果说用的LLM部分是7B的话,那么视觉编码器的参数量则是来到了4B左右,理论上这样量级的视觉编码器性能应该是会非常不错的,可以期待一手
………………………………