机器学习、深度学习、数据挖掘等人工智能领域的技术实战干货文章,这里都有!分享从业经验是我们的不变的准则……
今天看啥  ›  专栏  ›  机器学习算法工程师

Flux从12B变8B,这背后的原理是什么?

机器学习算法工程师  · 公众号  ·  · 2024-11-06 22:17
    

文章预览

⇧ 点 蓝色 字关注 “AI小小将” 目前,最好的开源文生图模型非Flux莫属了,不过Flux的模型参数很大,达到了12B,是之前SDXL的4倍多。更大的模型效果固然好,但是推理成本也变大了。最近,Freepik开源了一个更小的模型: Flux.1 Lite ,这个模型是Flux dev的蒸馏版本,但是DiT的 参数量从12B降到了8B,推理所需的显存减少了7GB,生图速度提升了23% 。 而且从官方给出的示例图来看,Flux.1 Lite是 增速不减量 :同样的提示词下可以得到相似的生图效果。 如何使用 目前Flux.1 Lite模型已经在HuggingFace上开源,可以直接使用diffusers库来使用这个模型,为了获得最佳结果,这里建议使用guidance_scale设置为3.5,同时采样步数设置在22~30之间。 import torch from diffusers import FluxPipeline base_model_id = "Freepik/flux.1-lite-8B-alpha" torch_dtype = torch.bfloat16 device = "cuda" # Load the pipe model_id = "Fre ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览