模型名称分别是:flux1-dev-Q4_1.gguf和t5-v1_1-xxl-encoder-Q5_K_M.gguf,将其分别放到models的UNET目录和clip目录。 随后,回到项目的根目录,输入命令,启动ComfyUI服务: python3 main.py --force-fp16 这里强制使用fp16精度用来提升性能。 程序返回: liuyue@mini ComfyUI % python3 main.py --force-fp...
flux-dev-fp16预训练模型集 17 flux预训练模型集 遇天 7枚 其他 DEVFLUX 8 162 2024-09-21 详情 相关项目 评论(0) 创建项目 文件列表 ae.safetensors flux1-dev.safetensors clip_l.safetensors t5xxl_fp16.safetensors ae.safetensors (319.77M) 下载 flux要的ae...
flux-schnell,也分为 fp-16 和 fp-8,可以4 步出图,但画质差一些 flux NF4,出图比 flux-dev 快 4 倍,显存占用也少 4 倍,低显存的福音 综合来说,flux-dev-fp16 出图特别慢,就连 4090 出一张图也是按分钟计算。如果电脑显存大于 16G,个人推荐直接用 flux-dev-fp8;但如果不够 16G,可以选择 NF4 和 ...
5、导入工作流并进行测试 将基础工作流JSON文件拖入ComfyUI页面中。本次测试使用Dev版本的模型。UNET选择加载flux1-dev.sft,weightdtype中选择fp8即可。在Clip加载器中需要加载两个Clip模型:t5xxl和clip_l。其中t5xxl可以选择t5xxlfp16.safetensors 和 t5xxlfp8.safetensors两种不同的精度选择其中一个即可。在VAE...
4090跑flux ..目前我在一张可以被称之为6800xtx的显卡上跑了flux+t5的全fp16版本,1024×1024,17s/it,512×512,4.2s/it,换算成20步总时间就是约5分半,1分半,等过两天有时间了
2、Dev(精简体) Dev可以理解成“开发版”,是从Pro里“提炼”出来的一个蒸馏模型,和Pro在质量上相似,但生成更加高效。 FLUX.1【Dev】:一种开放权重、指导蒸馏模型,适用于非商业应用。FLUX.1【Dev】直接从FLUX.1【pro】蒸馏而来,可获得类似的质量和快速遵守能力,同时比相同大小的标准模型更高效。
用户可以将以下图片保存,在ComfyUI中加载或拖动以下图像以获取工作流。ComfyUI支持多种FLUX.1模型的工作流,包括FLUX.1-dev-FP16、FLUX.1-schnell-FP16、FLUX.1-dev-FP8和FLUX.1-schnell-FP8。 五、总结 FLUX.1模型的部署和使用在丹摩智算平台上变得非常简单。通过ComfyUI,用户可以更直观地与FLUX.1模型交互,生...
可以看到这次的Flux模型大小都在20G左右,和传统的Flux dev FP16精度的模型保持一致,还是很吃显卡资源的。 在up的测试过程中,即便24G的4090偶尔也有出现爆显存的情况。 现在cg迷镜像已经更新到最新的comfyUI 0.3.2内核了,本地使用时,需要更新下comfyUI的内核。,才能正确运行Flux tools的工作流。
目前已知高性能版本有dev版的fp16和fp8版本,还有C站的一个剪枝版本,目前4090显卡训练lora使用fp16看起来是不现实的,那么是选择剪枝版还是fp8版本比较好呢? 送TA礼物 来自iPhone客户端1楼2025-02-17 23:26回复 灵异o异灵 核心吧友 7 FP8,完全够用,而且效果很好 来自iPhone客户端2楼2025-02-18 09:13 ...
下载ae.safetensors(即 vae)、flux1-dev.safetensors(即 unet) 3. 下载 clip 文件,进入 comfyui 的 github 主页找到 flux:https://github.com/comfyanonymous/ComfyUI_examples/tree/master/flux 从这里进入,看到 clip_l.safetensors、t5xxl_fp16.safetensors、t5xxl_fp8_e4m3fn.safetensors 这三个文件...