这个模型非常省内存,而且速度很快。 只需要 8 步就能生成一张高质量的图片,而且对电脑的显存要求不高,最低只需要 6.2 GB(使用 Q4_0 量化)。 相对于 FastFlux 和其他 Dev-Schnell 合并的优势: 质量更好:相比其他类似模型(比如 FastFlux),它在 8 步内就能生成更清晰、更有表现力的图片。 灵活调节:因为是 ...
https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main 改为:https://hf-mirror.com/black-forest-labs/FLUX.1-dev/tree/main Unet版和Checkpoint版区别: Unet版通俗来讲,没有包含clip和vae,需要单独下载 Checkpoint版,包含clip和vae Pro版模型 效果最好,但是闭源,API收费。 Dev版模型 ...
如果是 GGUF 模型,可先下载适合自己的版本(比如 flux1-dev-Q4_0.gguf ),安装到根目录的 models/unet 中,然后加载 flux_gguf 工作流。由于用到的模型很多,在生成前最好先检查一下每个模块的选择是否正确。 三、在 WebUI Forge 中使用新版模型 WebUI Forge 官网:https://github.com/lllyasviel/stable...
如果是 GGUF 模型,可先下载适合自己的版本(比如 flux1-dev-Q4_0.gguf ),安装到根目录的 models/unet 中,然后加载 flux_gguf 工作流。由于用到的模型很多,在生成前最好先检查一下每个模块的选择是否正确。 三、在 WebUI Forge 中使用新版模型 WebUI Forge 官网:https://github.com/lllyasviel/stable-dif...
软件安装简单,硬件成本也不高。无论是Q4还是Q8的GGUF,都能轻松运行。schnell大约需要4-6步出图,而dev则需要20-25步。听说Mac Mini或MacBook 16G内存也能运行,但我没有亲自测试。估计大概率可以运行Q4或FP8。如果你对模型微调感兴趣,可以临时使用云端服务器。后续有机会再尝试一下。0 0 发表评论 发表 ...
其中 Q8 的出图效果、速度都优于 fp8,需要 12GB 以上的显存;而 Q4 版本 8G 显存就能带动,生成质量比 NF4 好一些。 注意:这些量化版本的使用许可与原版模型是一致的,即 Dev 不可商用,Schnell 可以商用。 模型下载地址: 官方版本:https://hf-mirror.com/black-forest-labs/FLUX.1-dev/tree/main...
使用repo https://github.com/city96/ComfyUI-GGUF 中的flux1-dev-Q4_0.gguf 使用参数启动 ComfyUI: python3 main.py --lowvram --preview-method auto --use-split-cross-attention 在我们的工作流中,将“加载扩散模型”节点替换为“Unet Loader (GGUF)” FLUX.1 LoRA 在线训练工具 Replicate 提供了...
kk635241 铁杆吧友 8 4G显存确实小了点,非要跑flux建议用GGUFQ3Q4,搭配TeaCache这类加速技术。https://hf-mirror.com/city96/FLUX.1-dev-gguf/tree/mainhttps://github.com/likelovewant/sd-forge-teacache.git 4楼2025-02-19 13:07 回复 扫二维码下载贴吧客户端 下载贴吧APP看高清直播、视频!贴吧...
最后是 @City96 开发的 3 个 GGUF 量化版本。其中 Q8 的出图效果、速度都优于 fp8,需要 12GB 以上的显存;而 Q4 版本 8G 显存就能带动,生成质量比 NF4 好一些。 注意:这些量化版本的使用许可与原版模型是一致的,即 Dev 不可商用,Schnell 可以商用。
经过我实测,dev fp8(comfyOrg版)版本速度比gguf版本的更快(Q6和Q4),按理来说,精度更低的Q6Q4速度应该更快才对。我是4060ti 16G的显存,我最开始用的就是dev fp8(comfyOrg版),一张1024*1024的图,需要50多秒。但我感觉像是占用了内存条,所以我想换精度更低的gguf版本,希望只用显存来提升速度(不开显存...