硬件要求真的是硬伤,不过地球是圆的,技术也总是在发展的,就在这几天,ControlNet 的作者张吕敏大大带着他的flux1-dev-bnb-nf4来了。 硬是把配置的底线干到了 6G 显存,而且对于 6G 或者 8G 的显存配置也是相当友好,相对于 Flux.1 的fp8版本而言,6G 显存可以加速 1.3 倍至 2.5 倍,8G 显存更是最高可以有...
https://huggingface.co/city96/FLUX.1-dev-gguf 有t5的GGUF版本https://huggingface.co/city96/t5-v1_1-xxl-encoder-gguf https://github.com/city96/ComfyUI-GGUF,专门的comfyUI节点 4). NF4版本,低显存设计 模型主页:https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4 github作者说明:[Major U...
下载 flux1-dev-bnb-nf4.safetensors 模型后,放到根目录的大模型文件夹,然后加载 comfyui_flux_nf4 工作流。它的用法和普通大模型是一样的,但是不需要负面提示词,其余参数保持默认即可。我生成一张 1024*1024 的图像需要 2-3 分钟,比之前的 fp8 模型快 2 倍。 如果是 GGUF 模型,可先下载适合自己的版本...
模型:Flux1-dev-bnb-nf4-v2 Stable Diffusion基础模型在2.1的失败后,只有XL勉强还算是一次迭代,最新的3.5模型目前社区也是兴致寥寥。 SD迭代的困境,从很多软件至今都还在用1.5的模型就可见一斑。 但下一代SD又何必是SD?由出走团队开发的FLUX模型发布后,惊艳的效果一下子就吸引了很多开发者。 在以上建筑生图的尝试...
ControlNet作者张吕敏推出的flux1-dev-bnb-nf4模型,成功将配置需求大幅降低至6G显存即可运行,且对6G、8G显存更为友好,相比于Flux.1的fp8版本,速度有显著提升。 **实测对比**: - **画质对比**:通过对不同提示词的图像生成进行对比,nf4在画质上与fp8基本持平,甚至在一些细节处理上也呈现出色的表现。
FLUX NF4模型:https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/tree/main FLUX GGUF模型:https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main 总结 🧐有人问,装着原版WebUI的电脑能直接用这个包覆盖升级吗?非常不建议!Forge经过了太多优化,直接覆盖原版文件可能会冲突。建议另外新建个文件夹,全...
最近AI绘画开源社区又开始发力了,lllyasviel(敏神)——ControlNet的作者刚才发布了一款Flux1-dev-bnb-nf4-v2模型,这个版本最大的优势就是能让低显存的设备也能运行,这个低到底有多低呢? 实测下来3070ti笔记本(8G VRAM)在跑NF4-V2模型每次迭代只需要2.15秒(这只是该笔记本计算的时间,并不代表所有8GVRAM都是这个...
_"如果您的设备支持11.7以上版本的CUDA,那么您可以使用NF4。(大多数RTX 3XXX/4XXX系列GPU都支持此功能。)恭喜您,尽情享受高速体验吧。在这种情况下,您只需下载flux1-dev-bnb-nf4.safetensors文件即可。_ _如果您的设备是GTX 10XX/20XX系列GPU,那么您的设备可能不支持NF4,请下载flux1-dev-fp8.safetensors文...
下载 flux1-dev-bnb-nf4.safetensors 模型后,放到根目录的大模型文件夹,然后加载 comfyui_flux_nf4 工作流。它的用法和普通大模型是一样的,但是不需要负面提示词,其余参数保持默认即可。我生成一张 1024*1024 的图像需要 2-3 分钟,比之前的 fp8 模型快 2 倍。 如果是 GGUF 模型,可先下载适合自己的版本...
FLUX NF4模型:https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/tree/main FLUX GGUF模型:https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main 总结 🧐有人问,装着原版WebUI的电脑能直接用这个包覆盖升级吗?非常不建议!Forge经过了太多优化,直接覆盖原版文件可能会冲突。建议另外新建个文件夹,全...