文章预览
⇧ 点 蓝色 字关注 “AI小小将” 目前,最好的开源文生图模型非Flux莫属了,不过Flux的模型参数很大,达到了12B,是之前SDXL的4倍多。更大的模型效果固然好,但是推理成本也变大了。最近,Freepik开源了一个更小的模型: Flux.1 Lite ,这个模型是Flux dev的蒸馏版本,但是DiT的 参数量从12B降到了8B,推理所需的显存减少了7GB,生图速度提升了23% 。 而且从官方给出的示例图来看,Flux.1 Lite是 增速不减量 :同样的提示词下可以得到相似的生图效果。 如何使用 目前Flux.1 Lite模型已经在HuggingFace上开源,可以直接使用diffusers库来使用这个模型,为了获得最佳结果,这里建议使用guidance_scale设置为3.5,同时采样步数设置在22~30之间。 import torch from diffusers import FluxPipeline base_model_id = "Freepik/flux.1-lite-8B-alpha" torch_dtype = torch.bfloat16 device = "cuda" # Load the pipe model_id = "Fre
………………………………