安装nunchaku库首先在官网 git clone https://github.com/mit-han-lab/nunchaku.git 这个nunchaku的项目文件 你可以随便放哪,我一般直接塞到custom node里然后你需要进入nunchaku的项目文件夹里找到comfyui 并且将文件夹复制到custom node里并且将文件夹命名为svdquant 进入svdquant(也就是原来的comfyui文件夹)将依赖...
首先我们需要上传一个SVD1.1的视频模型,SVD模型模型是一个生成图像到视频的扩散模型,通过对静止图像的条件化生成短视频。模型下载的网址如下:首先使用点击jupyterLabUI,上传路径为:root/ComfyUI/models/checkpoints里用上传功能将模型放置到该文件夹内。 等到下载完成后点击webui进入comfyui界面 一开始是英文的界面,可以...
这样会生成一个约4秒左右的视频。你的图片就动起来了,你可以在ComfyUI根目录的输出文件夹里找到这些图片,也可以右键点击,将它保存下来。 不过,按照默认的这一套参数运行,有时生成的视频效果会有点奇怪,碰到类似这样的问题时,我们就得去更改下面这一系列和视频生成有关的参数了,这其中有三个,是需要你重点关注的。
进入Comfyui目录 cd ComfyUI-master/ 2.4配置模型地址 我们在创建工作空间的时候已经选择sd-base的数据集,这里只需要改下Comfyui加在模型的path就行了,修改步骤往下看: 在ComfyUI目录下,找到extra_model_paths.yaml.example文件,重命名为extra_model_paths.yaml 修改文件内的base_path参数,修改为模型目录的绝对地址,...
在工作空间页面选择B4区,实例选择4090单卡,镜像选择应用镜像/comfyui-journey/v1.0.3,挂载网盘,数据集选择sd-base,然后点击创建即可。如下图: 2.2配置学术加速 实例创建完成后,在工作空间界面进入Jupyter页面,如图: 然后新建一个终端,并执行以下命令: 先使用学术加速 ...
这里我们主要还是分享ComfyUI中的使用。 图生视频流程详解: 1. 首先,我们启动“run_nvidia_gpu.bat”在弹出的URL中选择“Manager” 选择“Install Custom Nodes”安装节点,在弹出的窗口搜索“SVD” 安装第一个“ComfyUI-SVD”即可,然后再搜索一个“videohelpe”用于合成图片。安装即可。
本文将带您一步步在云端服务器上部署ComfyUI并安装SVD模型,实现AI视频的快速创作。 一、环境准备 1. 云端服务器选择 推荐使用揽睿星舟(Lanrui AI)作为云端部署平台,该平台提供便捷的注册和算力支持。新用户注册即可免费使用2小时算力,足够完成初步的入门体验。 2. 创建工作空间 登录揽睿星舟官网(https://www....
在工作空间页面选择B4区,实例选择4090单卡,镜像选择应用镜像/comfyui-journey/v1.0.3,挂载网盘,数据集选择sd-base,然后点击创建即可。如下图: 2.2配置学术加速 实例创建完成后,在工作空间界面进入Jupyter页面,如图: 然后新建一个终端,并执行以下命令: 先使用学术加速 ...
在工作空间页面选择B4区,实例选择4090单卡,镜像选择应用镜像/comfyui-journey/v1.0.3,挂载网盘,数据集选择sd-base,然后点击创建即可。如下图: 2.2配置学术加速 实例创建完成后,在工作空间界面进入Jupyter页面,如图: 然后新建一个终端,并执行以下命令: 先使用学术加速 ...
大家好,这里是和你们一起探索 AI 的花生~之前为大家推荐过一些可以将图像转为动图或者短视频的 AI 工具,比如 LeiaPix Converter、Runway、Pika 等,今天再为大家推荐一种在本地免费实现图像转短视频的方式,即在 ComfyUI 中使用开源模型 Stable Video Diffusion...