生成时间在一分钟以内,同配置的用户可以尝试一下FP8模型,如果RAM低于32GB,可能会出现爆显存的情况,其次可以尝试一下GUFF的Q8、Q6版本,NF4也是比较好的选择,只不过NF4的画风与其他FLUX系列差异比较大,更偏向漫画风格,NF4有一个优点:clip、vae、文本编码器不需要额外下载。GUFF的Q5版本是最后选择 6GB显存及以上 适用NF
flux dev 8精度模型 遇天 7枚 其他 DEVFLUX 1 60 2024-09-24 详情 相关项目 评论(0) 创建项目 文件列表 flux1-dev-fp8.safetensors t5xxl_fp8_e4m3fn.safetensors clip_l.safetensors ae.safetensors flux1-dev-fp8.safetensors (16447.57M) 下载 flux fp8大模型 内置clip和t5xxl ae反馈...
FLUX.1 [dev]模型:https://huggingface.co/black-forest-labs/FLUX.1-dev FLUX.1 [schnell]模型:https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/flux1-schnell.safetensors F.1-fp8模型:https://www.liblib.art/modelinfo/de40ff893256477bbb1bb54e3d8d9df6 FLUX NF4模型:https://...
FLUX.1 [dev]模型:https://huggingface.co/black-forest-labs/FLUX.1-dev FLUX.1 [schnell]模型:https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/flux1-schnell.safetensors F.1-fp8模型:https://www.liblib.art/modelinfo/de40ff893256477bbb1bb54e3d8d9df6 FLUX NF4模型:https://...
模型介绍 flux1.0官方原生的depth模型有20多G,可以直接连接一张depth图像进行出图控制,对于消费级电脑来说我们需要更小的模型,今天分享的是两个版本,分别是fp8和gguf量化版本,可以根据自己的需求进行使用。 模型文件: flux1-depth-dev-fp8.safetensors(11G) flux1-d
fp8的使用也很简单,可以直接通过ComfyUI自带的Checkpoint加载器进行加载。但不可避免的是,由于计算精度的下降,fp8的出图质量也会有所下降。所以,在你的电脑配置条件允许的情况下,可以下载完整的FLUX模型以取得最佳的生成效果。而如果运行有压力,你也可以把fp8模型作为优化的首选手段。如何使用标准工作流?ComfyUI...
下载 flux1-dev-bnb-nf4.safetensors 模型后,放到根目录的大模型文件夹,然后加载 comfyui_flux_nf4 工作流。它的用法和普通大模型是一样的,但是不需要负面提示词,其余参数保持默认即可。我生成一张 1024*1024 的图像需要 2-3 分钟,比之前的 fp8 模型快 2 倍。 如果是 GGUF 模型,可先下载适合自己的版本...
将基础工作流JSON文件拖入ComfyUI页面中。本次测试使用Dev版本的模型。UNET选择加载flux1-dev.sft,weightdtype中选择fp8即可。在Clip加载器中需要加载两个Clip模型:t5xxl和clip_l。其中t5xxl可以选择t5xxlfp16.safetensors 和 t5xxlfp8.safetensors两种不同的精度选择其中一个即可。在VAE中加载我们刚刚下载好的ae...
FLUX.1 [dev] fp8:大佬优化 [dev] 后版本,仅需 12G 显存,强烈推荐。【点击下载】https://huggingface.co/Kijai/flux-fp8/blob/main/flux1-dev-fp8.safetensorsFLUX.1 [schnell]:4 步蒸馏模型,大多数显卡都能运行。【点击下载】https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/...
**---> 步骤2** 将下载的文件放入/Forge/webui/models/Stable-diffusion/ 目录 **---> 步骤3 运行Update.bat** **---> 步骤4** 启动Forge - 选择FLUX和FLUX模型 开始生成! ### **NF4还是FP8?** NF4版本比其他Flux版本(如FP8)快得多。我推荐使用NF4模型以获得更快的速度和更低的显存需求。它可以...