Flux不同显存适用模型 由于使用fp16生图不太实际,很快地就出现了Dev与Schnell的fp8版本。 如果有12GB以上的VRAM,Dev-FP8版本是一个可以考虑的选项,虽然相对耗时但效果更好。 说明 如果你的4090可运行全精度DEV版本,但仍然建议常备一个GGUF8模型,因为后续工作流增加LORA和Controlnet所需的显存会更大 如果只有6G...
经过我的测试(NVIDIA 4060 8G):使用 bnb NF4 Flux dev 模型出图,20步,首次时间(加载模型)来到60秒,往后出图时间来到56秒。 对比我之前的FP8 Flux Dev 模型,20步,时间是223秒,提升巨大。 而且出图质量对比FP8基本没什么损失。 SD WebUI Forge已经更新,更新到最新版的Forge即可使用 bnb NF4 Flux dev checkpoi...
Step-1:在 UNET 加载器节点选择要加载的 FLUX 的 UNET 模型 flux1-dev Step-2:在双 CLIP 加载器节点选择要加载的 FLUX 的 CLIP 模型 t5xxl(内存 >32GiB 使用 fp16 精度,否则使用 fp8 精度) 、clip_l 及 flux type Step-3:在 CLIP 文本编码器节点输入 Prompt Step-3-1:在 FluxGuidance 节点设置 gui...
Flux模型的dev版本占用空间高达24GB,即使是fp8-dev精简版也需要11GB。即使是配备了RTX4090 显卡的高端设备,在处理多张图像时也可能感到吃力。这样的硬件门槛无疑限制了更多人的参与和体验。 这边推荐ComfyUI的一个插件:BizyAir。这是一款云端运行的插件,BizyAir集成了多个ComfyUI节点,让用户能够在ComfyUI中充分利用云...
从花果山的灵石出世,到取经路上的九九八十一难,再到大闹天宫的惊心动魄……这些耳熟能详的西游场景,如今都能通过Flux模型,以超乎想象的细节和真实感呈现在你眼前。本次实验在函数计算中内置的flux.1-dev-fp8大模型,搭配Lora模型,无需复杂的配置,一键部署,你就能成为这场视觉盛宴的创造者。
(env) (base) E:\pinokio\api\fluxgym.git>accelerate launch --mixed_precision bf16 --num_cpu_threads_per_process 1 sd-scripts/flux_train_network.py --pretrained_model_name_or_path "E:\pinokio\api\fluxgym.git\models\unet\XLabs-AI\flux-dev-fp8\flux-dev-fp8.safetensors" --clip_l "...
flux dev 8精度模型 遇天 7枚 其他 DEVFLUX 1 60 2024-09-24 详情 相关项目 评论(0) 创建项目 文件列表 flux1-dev-fp8.safetensors t5xxl_fp8_e4m3fn.safetensors clip_l.safetensors ae.safetensors flux1-dev-fp8.safetensors (16447.57M) 下载 flux fp8大模型 内置clip和t5xxl ae反馈...
dev质量好,但是画面里的元素随机性似乎没那么强,而且复杂一点的提示词里,一部分提示词没效果的几率比较大,schnell画面崩的概率高一点,但是会尽量去提现每一个提示词。 来自Android客户端5楼2024-08-16 09:42 收起回复 madeat2009 核心吧友 6 nf4看起來跟fp8差不多 来自iPhone客户端6楼2024-08-22 18:14 ...
不正常,我的4060ti 8G 跑 flux fp8dev 1024的图 要 70多秒。 应该是你软件有些包的版本不对,导致有些功能用的是cpu 6楼2024-09-20 12:46 收起回复 字母一串 初级粉丝 1 爆显存了。我的3070同样8G只要一分来钟 来自Android客户端7楼2024-09-21 20:03 回复 ...
我的台式机就是4070ti,12G显存,之前32G内存,11G那个flux dev fp8用起来没问题,我一般生图的尺寸比你那个1024x1024大,comfyui(记得更新到新版),不会爆。慢,不知道你说的慢是多慢,如果觉得慢,你看下b站up主“蓝色多脑盒”的最新视频:【Flux简单稳定高质量的加速方案-哔哩哔哩】 https://b23.tv/tfdibPj按这个...