stable-diffusion-xl-refiner-1.0:https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0 准备好模型后,我们先从最简单的 base workflow 开始,单只用 base 的话,基本的 workflow 就可以用了,要使用 refiner 的话,可以複製一套基本 workflow,把 base 的 output latent 接到刚刚複製的这一套 workflow...
你可以使用整合包中的此工作流(https://github.com/ltdrdata/ComfyUI-extension-tutorials/blob/Main/ComfyUI-Impact-Pack/workflow/sdxl-detailer.png)来使用Face Detailer自定义节点和 SDXL 基础和细化模型重新生成面部。下载并拖放该图片文件到 ComfyUI 中即可。 要使用此工作流,你将需要设置: 在Load Image节点...
·第一步,先把SDXL Turbo的checkpoint模型下载下来。下载下来之后还是老规矩放在comfy UI models,checkpoint文件夹里面放到这里。 ·第二步,把它的workflow下载下来。千万不要被这小狐狸所迷惑了,它就是一个workflow。workflow下载下来之后就是这样子的。 ·接下来打开comfy UI,comfyUI里面直接把小狐狸拖进去。投进去...
顺便提一下就是如果是需要将背景整合成为一张的话可以之间从ckpt节点上链接一个clip正向词作为一个额外的并联装置来和之前的combine进行组合,再通过一个新的combine输出。 然后这里介绍下基于SDXL的调节器,如上图这是一个基于sdxl base模型的文生图工作流。 和基础1.5的整体都比较接近。主要的区别就是中间的clip编...
sd绘画的过程一般是这样 加载模型---使用clip解析tag---从空白latent中获取噪点---使用采样器进行采样---使用vae对latent进行解码---输出图片 知道这个流程后那么我们就开始搭建sdxl的workflow,对默认的流程稍加修改即可,如图 有点需要注意,sdxl使用了两个clip,clip_g与clip_L,经过大量测试,实际使用时需要将两...
SDXL 尺寸参考 1:1(正方形):1024x1024、768x768 3:2(横向):1152x768 2:3(纵向):768x...
git clone https://github.com/ltdrdata/ComfyUI-Workflow-Component 完全重新启动 ComfyUI。 使用Face Detailer (SDXL) 重新生成面部 ADetailer是一个 AUTOMATMIC1111 扩展,可自动使用修复来修复面部。 ComfyUI 中的对应部分是Face Detailer(也称为DDetailer)。它包含在影响包中。
Cc啊程、全自动模板LCM+SDXL Style风格选择器工作流.json Cc啊程、双模型混合参数.json Cc啊程、室内平面参数工作流.json Cc啊程、家具测试.json Cc啊程、工作流LCM+LORA.json Cc啊程、文字模组.json Cc啊程、景观LCM参数工作流.json Cc啊程、景观参数流工作.json Cc啊程、标准LCM参数最新.json Cc啊程、...
而同样基于Stable Diffusion开发的ComfyUI,虽然相对小众,但由于其具有简洁灵活的界面,清晰可见的Workflow,高效的运行效率等特性,逐渐受到越来越多用户的喜爱。直到SDXL发布,由于ComfyUI支持更好,很多用户为了更好的体验这个新一代的模型而从WebUI转到ComfyUI,让它一下子火了起来。ComfyUI实质上是一个工作流程的...
首先进入模版区,选择 Canny ControlNet workflow,进入画布后在标注 Erros 的地方选择对应的模型和参数。可以在左侧画布操作,也可以在右侧控制面板操作。step2 第一个 Apply Controlnet 后串联第二个 Apply Controlnet 从第一个 Apply Controlnet(positive)的 CONDITIONING 节点拉出连线,选择 Apply Controlnet(...