comfyUI的fp8量化模型:降低运行FLUX所需的显存占用。 原版模型的精度是fp16的,而comfyUI的开发团队comfyOrg就针对FLUX开源的两款模型,制作了fp8的量化版本。让使用FLUX变得不再困难。 这个模型最大的特点是可以使用comfyUI自带的Checkpoint加载器进行加载。 1、使用方式 他们同样提供了这个fp8版本的标准工作流。 只需要...
模型:flux-dev-fp8 - Clip:t5xxl_fp8_e4m3fn 模型:flux-dev-fp8 - Clip:t5xxl_fp16 模型:flux-dev - Clip:t5xxl_fp8_e4m3fn 模型:flux-dev - Clip:t5xxl_fp16 这是最终的图片效果,其中图 1 和图 3 是完全一样的,图 2、3、4 相差不多,主要是一些细节上的区别,比如衣服前面的配饰有一些细微...
登录实例 接下来将基于平台提供的JupyterLab工具,演示fp16版本的部署流程。 首先,启动JupyterLab,并创建终端: 部署ComfyUI 在终端中执行以下命令克隆ComfyUI代码: 代码语言:javascript 代码运行次数:0 运行 AI代码解释 # github官方代码仓库 git clone https://github.com/comfyanonymous/ComfyUI.git # gitCode-github...
FLUX.1 [dev]仅需10GB显存,同时在GeForce RTX 5090上的性能比使用普通BF16的GeForce RTX 4090快2倍...
此外,还介绍了如何下载和部署FLUX.1模型,并在ComfyUI中运行。最后,文章展示了如何通过丹摩平台的端口映射功能,将内网端口映射到公网,以便访问ComfyUI交互界面,并展示了FLUX.1-dev-FP16的效果图。整个过程展示了丹摩智算平台的强大功能和易用性,为AI开发者提供了一个便捷、高效的开发环境。
您需要登录才可以下载或查看,没有账号?注册 F.1-Fill-fp16_Inpaint&Outpaint-Checkpoint https://...
2️⃣ kijia发布的fp8模型则没有融合clip和vae,对应的工作流是图3,即原版工作流。只需将模型替换为fp8而不是fp16即可。下载后请将模型文件放置在models/unet文件夹中。📏 如何区分两个版本的fp8?两者命名相同,但文件大小有明显区别。comfyui的融合版模型文件大小为17.2G,而kijia的非融合版模型文件大小只有...
这其实就是SD3的Clip模型,配置好我们选择fp16,配置一般我们选择fp8,clip_l是一定要下载的 下载完我们放在:ComfyUI\models\clip 该文件夹内 以上的大模型,VAE,Clip都安装完成后我们就可以运行我们的工作流了,官网提供了一个简易的comfyUI工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/ ...
支持FP8(8位浮点运算),相比传统的 FP16 模式,显存占用更低,同时图像质量基本不受影响。 3.路径生成器与文件优化 工具会自动生成输出文件的路径,并将结果存储在指定的目录下,避免因文件名过长导致更新失败的问题。 四、实际工作流示例 下面有一些具体的工作流示例,帮助你快速上手: ...
下载t5xxl_fp16.safetensors 或 t5xxl_fp8_e4m3fn.safetensors (建议选择fp8 版本,如果你显存超过 32G 可选择 fp16 版本) 放入到ComfyUI/models/clip/ 目录中 4. 下载 VAE 模型 下载地址: https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/ae.safetensors ...