1、安装animatediff插件 在节点管理器中安装带有evolved后缀的进阶版animatediff插件。 同时把两个动态模型:v2.safetensors、v3.safetensors放到comfyUI\custom_nodes\comfyUI-AnimateDiff-Evolved\models里面 还有Lora模型:mm_sd15_v3_adapter.safetensors放到
ComfyUI应该能够自主下载其他控制网相关模型。在搭载4060ti 的显卡上,生成大约需要 3 分钟。生成的视频如下所示:继续制作更多视频 这个流程中,得益于清华大学最新的 LCM 技术,采样过程只需要 6 步就可以生成相应的视频。同样,一段时长约两秒的视频,在 4060ti 的显卡上,利用 20 步采样,原本需要 8 分钟,...
一、ComfyUI安装指南 下载ComfyUI安装包 首先,您需要从官方网站或其他可信来源下载ComfyUI安装包。确保下载的安装包与您的操作系统版本兼容。 安装ComfyUI 下载完成后,双击安装包进行安装。在安装过程中,请遵循安装向导的提示,按照步骤完成安装。通常情况下,您只需按照默认设置进行安装即可。 配置ComfyUI 安装完成后,您...
一、下载ComfyUI安装包 首先,你需要在ComfyUI的官方网站上下载安装包。请确保你下载的是与你的操作系统版本相匹配的安装包。 二、安装ComfyUI 打开下载的安装包文件,开始安装过程。 根据安装向导的提示,选择安装路径和其他相关设置。 完成安装后,启动ComfyUI程序。 三、配置ComfyUI 在启动ComfyUI后,你需要进行一些基...
用AnimateDiff Prompt Travel video-to-video搭配ComfyUI制作AI视频,效果丝滑 0 制作Stable Diffusion动画 AnimateDiff的技术原理 AnimateDiff可以搭配扩散模型算法(Stable Diffusion)来生成高质量的动态视频,其中动态模型(Motion Models)用来实时跟踪人物的动作以及画面的改变。 2. 环境搭建 这里我们使用ComfyUI来搭配Animate...
git 克隆https://github.com/Kosinkadink/ComfyUI-Advanced-ControlNet 对于ControlNet 预处理器,您不能简单地下载它们,您必须使用我们上面安装的管理器。首先运行 ComfyUI_windows_portable 文件夹中的“run_nvidia_gpu”。它将初始化上述一些节点。然后,您将点击“管理器”按钮,然后“安装自定义节点”,然后搜索“...
1. 在你的计算机上安装 ComfyUI。打开 ComfyUI 管理器,点击 "安装自定义节点" 选项。 在搜索框中搜索 "animatediff",并安装标记为 "Kosinkadink" 的版本。然后重启 ComfyUI 以使更改生效。 2. 现在,从 Hugging Face 仓库 下载上图所示的三个相关运动模型。 下载后,将它们保存到 "ComfyUI_windows_portable/...
视频教程提供ComfyUI节点与模型下载指南,涵盖AnimateDiff、ControlNet等节点及Checkpoint模型。附文本生成动画JSON文件与工作流文件下载链接。观看教程,按步骤操作,轻松完成界面节点安装与模型配置,提升创作效率。
AnimateDiff教程:以Stable Diffusion技术为背景,本文为用户详细介绍如何使用AnimateDiff进行动图创作,从基础开始。教程涵盖了系统需求与安装流程,包括安装ComfyUI、配置硬件以及下载相关模型与工具。用户将学习AnimateDiff的工作流程,包括配置参数、生成动画与输出合成。教程还提供一个示例代码,展示如何使用AnimateDiff制作动态图...