文章预览
我不喜欢在标题里用叹号 本次除外 就在现在 此刻,智谱进行了一系列极其炸裂的发布,包括: GLM-4-Flash 免费 128K 上下文 之前测试过, 生成速度是 72.14 token/s ,很快,参见: 大模型真实速度一览(附:测试脚本) CogVideoX-2B 巨幅更新 : 显存需求: 7.8 G,也就是桌面 1080 可跑 ! 开源协议:使用了 「随便商业化」的阿帕奇(Apache)协议 注:半个月前,这个模型还需 21.6G,得 A600 才能跑 要知道,GTX 1080 是 2016 年发布的古董卡 CogVideoX-5B 大杯模型开源 : 大杯更出色!效果不比清影差! 显存需求: 11.5 G,也就是桌面 3060 可跑 ! 一起欢呼 Hugging Face 和魔搭在得知了本次更新后,表示大力支持, 卡管够,算力管够,请尽情体验 : Hugging Face : https://huggingface.co/spaces/THUDM/CogVideoX-5B-Space 据了解,Hugging Face 为这次开源,特别准备了 H100 集群, 单视
………………………………