1. Dev FP16 :即FLUX dev的原版模型,可以本地部署的最好的模型,但最低需要16GB的显存 dev FP16下载地址 2. Dev FP8 :由FP16缩减而来的模型,与FP16生成效果相差很小,近几天更新了5em2版本,8GB显存+RAM32GB可以运行,本人亲测可行(4060,显存 8GB, RAM 32GB 运行FP8模型生成1024*1024图像
2.设置中文语言:【点击下载】中文语言包,将 ZIP 包解压到 ComfyUI\custom_nodes 目录中 3.下载 Flux 模型:FLUX 模型有四个可选,FLUX.1 [dev] 、FLUX.1 [dev] fp8、FLUX.1 [schnell]、FLUX.1 [schnell] fp8; ① FLUX.1 [dev] :官方版本满配版,最低显存要求24G;下载地址: 【点击下载】或【网盘打包...
然后,在中间的提示词框里输入内容。“FLUX引导(Flux Guidance)”,作用于提示词的控制强度,越高越忠实,越低越自由。在Primitive元节点填入生成图片的宽和高。其他的批次数、种子数、采样器、调度器等等参数,维持默认即可。设置完毕后就可以点击运行工作流按钮,等待出图了。这就是在ComfyUI里使用Dev模型生图的...
模型名称分别是:flux1-dev-Q4_1.gguf和t5-v1_1-xxl-encoder-Q5_K_M.gguf,将其分别放到models的UNET目录和clip目录。 随后,回到项目的根目录,输入命令,启动ComfyUI服务: python3 main.py --force-fp16 这里强制使用fp16精度用来提升性能。 程序返回: liuyue@mini ComfyUI % python3 main.py --force-fp...
② FLUX.1 [dev] fp8:大佬优化 [dev] 后版本,建议选择此版本,最低 12G 显存可跑; 下载地址: https://huggingface.co/Kijai/flux-fp8/blob/main/flux1-dev-fp8.safetensors ③ FLUX.1 [schnell]:4 步蒸馏模型,(前言有写),大多数显卡可跑。 下载地址: https://huggingface.co/black-forest-labs/FLUX...
遇天 7枚 其他 DEVFLUX 8 162 2024-09-21 详情 相关项目 评论(0) 创建项目 文件列表 ae.safetensors flux1-dev.safetensors clip_l.safetensors t5xxl_fp16.safetensors ae.safetensors (319.77M) 下载 flux要的ae反馈建议功能升级啦! •预置高频标签帮你快速锁定问题 •在线交流、邮件、电话,随你...
访问Hugging Face(https://huggingface.co/),搜索并下载所需的 Flux 模型文件,如 flux1-dev.safetensors。 将下载的模型文件放入 ComfyUI 的相应目录下,如 ComfyUI/models/unet/。 下载CLIP 和 VAE 模型: 同样在 Hugging Face 上搜索并下载所需的 CLIP 和 VAE 模型文件,如 t5xxl_fp16.safetensors 和 ae...
FLUX.1 [dev]:官方满配版,显存最低要求 24G,推荐下载。【点击下载】https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main FLUX.1 [dev] fp8:大佬优化 [dev] 后版本,仅需 12G 显存,强烈推荐。【点击下载】https://huggingface.co/Kijai/flux-fp8/blob/main/flux1-dev-fp8.safetensors...
该死的,4070 super比4060ti贵很多,但Vram只有12GB,这导致我甚至用不了flux dev FP8模型(该模型需要16GB Vram,和schnell FP8相同),虽然可以使用GGUF版本,但还是去***NVIDIA 来自Android客户端14楼2024-09-10 23:35 收起回复 BellzsBilly: 是的,fp8显存占用13个G左右 2024-9-11 09:58回复 大顺JD1: 3080TI...