下载SDXL Turbo 模型地址🔗 https://huggingface.co/stabilityai/sdxl-turbo/blob/main/sd_xl_turbo_1.0_fp16.safetensors 将下载好的模型放到ComfyUI/models/checkpoints/路径下 启动ComfyUI+出图 启动ComfyUI 在终端切换到 ComfyUI 项目路径,执行python main.py --force-fp16来启动: 最后在浏览器中访问htt...
·第一步,先把SDXL Turbo的checkpoint模型下载下来。下载下来之后还是老规矩放在comfy UI models,checkpoint文件夹里面放到这里。 ·第二步,把它的workflow下载下来。千万不要被这小狐狸所迷惑了,它就是一个workflow。workflow下载下来之后就是这样子的。 ·接下来打开comfy UI,comfyUI里面直接把小狐狸拖进去。投进去...
low contrast, low saturation, and flat lighting.二、一定要用SD官方给出的ComfyUI workflow!我有看到Comfy作者自己整了一个简单的workflow,就是那种以前的SD模型也通用的workflow,这种是不可以的,会生成非常垃圾甚至非常可怕的人像(四肢乱飞那种),一定要用SD官方在huggingface上传的那几个sample workflow(就...
同时 comfyui 默认支持使用 cpu,使用 workflow 也非常便于梳理流程、进一步学习 aigc 文生图模型。
二、一定要用SD官方给出的ComfyUI workflow! 我有看到Comfy作者自己整了一个简单的workflow,就是那种以前的SD模型也通用的workflow,这种是不可以的,会生成非常垃圾甚至非常可怕的人像(四肢乱飞那种),一定要用SD官方在huggingface上传的那几个sample workflow(就是其中包含CLIP loader、好几个conditioning set timestep ...
SDXL-turbo(对比用): ComfyUI应用方法: 测试效果: 前两天看了关于SDXL-Lightning的论文:arxiv.org/abs/2402.1392 想测试一下效果。就安装了ComfyUI,并进行了测试。环境为ubuntu 18,Nvidia GPU,因为机器上已经安装过Anaconda,Cuda,pytorch等,所以主要就是下载ComfuUI,安装requirements,配置Manager等。 1 ComfyUI下...
通过在comfyui中实时读取blender窗口,提高了AI概念出图的速度,文件下载地址:---相关文件下载连接:(1)mixlab-共享窗口项目:https://github.com/shadowcz007/comfyui-mixlab-nodes(2)Krita+ComfyUI实时P图视频https://www.bilibili.com/video/
#StabilityAI 刚发布 #sdxl_turbo, 4060TI 生成 512x512的图像速度为0.3s 每张! 丝滑. 这种几十倍速度的提升带来的想象空间. (即使画质有点降低) #comfyui workflow - Gary-Teresa are afk于20231129发布在抖音,已经收获了20.5万个喜欢,来抖音,记录美好生活!
PremiumAdvanced Workflow I will meet with you to discuss your ComfyUI needs and recommend a course of action.I will create a basic workflow that has one main feature.I will create a more advanced workflow that has multiple features.
首先下载sdxl_lightning_4step.safetensors大模型,安装到根目录的models/checkpoints文件夹中(如果是和SD WebUI共享资源,则放到WebUI的根目录中)。 将ComfyUI更新到最新版本,然后把comfyui_sdxl_lightning_workflow_full工作流拖入界面中。 需要确认的设置有:Ksampler中的生成步数要与你选择的大模型保持一致,这里我...