主要观点总结
本文主要介绍了智谱的一系列炸裂的发布,包括GLM-4-Flash的免费128K上下文生成,CogVideoX-2B的巨幅更新和开源,以及CogVideoX-5B大杯模型的开源。文章还提到了Hugging Face和魔搭对这次更新的支持,以及模型的技术参数和适用场景。最后,文章展示了CogVideoX背后的一篇论文和一些实例。
关键观点总结
关键观点1: 智谱进行了一系列重大发布。
包括GLM-4-Flash、CogVideoX-2B和CogVideoX-5B模型的更新和开源。
关键观点2: 模型更新后的技术参数和适用场景。
模型支持多种精度的推理,包括FP16、BF16、FP32、INT8、FP8等。显存需求降低,更多普通硬件可以运行。
关键观点3: 开源协议采用阿帕奇(Apache)协议。
这是「随便商业化」的协议,允许使用者自由使用、修改和分发软件,适用于希望在自由使用的同时保护专利的项目。
关键观点4: 得到了Hugging Face和魔搭的大力支持。
他们提供了集群支持,算力充足,鼓励用户尽情体验。
关键观点5: 展示了模型的应用实例和背后的论文。
文章提到了一些令人印象深刻的应用实例,并指出模型背后的论文值得关注。
文章预览
我不喜欢在标题里用叹号 本次除外 就在现在 此刻,智谱进行了一系列极其炸裂的发布,包括: GLM-4-Flash 免费 128K 上下文 之前测试过, 生成速度是 72.14 token/s ,很快,参见: 大模型真实速度一览(附:测试脚本) CogVideoX-2B 巨幅更新 : 显存需求: 7.8 G,也就是桌面 1080 可跑 ! 开源协议:使用了 「随便商业化」的阿帕奇(Apache)协议 注:半个月前,这个模型还需 21.6G,得 A600 才能跑 要知道,GTX 1080 是 2016 年发布的古董卡 CogVideoX-5B 大杯模型开源 : 大杯更出色!效果不比清影差! 显存需求: 11.5 G,也就是桌面 3060 可跑 ! 一起欢呼 Hugging Face 和魔搭在得知了本次更新后,表示大力支持, 卡管够,算力管够,请尽情体验 : Hugging Face : https://huggingface.co/spaces/THUDM/CogVideoX-5B-Space 据了解,Hugging Face 为这次开源,特别准备了 H100 集群, 单视
………………………………