安装nunchaku库首先在官网 git clone https://github.com/mit-han-lab/nunchaku.git 这个nunchaku的项目文件 你可以随便放哪,我一般直接塞到custom node里然后你需要进入nunchaku的项目文件夹里找到comfyui 并且将文件夹复制到custom node里并且将文件夹命名为svdquant 进入svdquant(也就是原来的comfyui文件夹)将依赖...
接下来讲如何在comfyui中安装这个项目 安装nunchaku库 首先在官网 git clone github.com/mit-han-lab/ 这个nunchaku的项目文件 你可以随便放哪,我一般直接塞到custom node里 然后你需要进入nunchaku的项目文件夹里找到comfyui 并且将文件夹复制到custom node里并且将文件夹命名为svdquant 进入svdquant(也就是原来的com...
登录揽睿星舟官网(https://www.lanrui-ai.com/register),注册并登录。 在工作空间页面选择B4区,实例选择4090单卡,镜像选择应用镜像/comfyui-journey/v1.0.3,挂载网盘,数据集选择sd-base,然后点击创建。 二、ComfyUI部署 1. 配置学术加速 实例创建完成后,进入工作空间界面,点击Jupyter页面,新建一个终端,并执行以下...
svdquant新量化技术量化flux,速度提升近3倍,质量近乎无损(好吧还是有些损失的),8G显存可用,comfyui内使用教程 1999 0 01:27 App svdquant的Flux模型技术太逆天1秒不到就能生图 3118 89 01:33 App 【ComfyUI教程】强大到变态,商用级Flux AI换装试衣comfyui工作流分享,无需训练,一键换装小白实现超高还原度超自然...
之前为大家推荐过一些可以将图像转为动图或者短视频的 AI 工具,比如 LeiaPix Converter、Runway、Pika 等,今天再为大家推荐一种在本地免费实现图像转短视频的方式,即在ComfyUI中使用开源模型Stable Video Diffusion(SVD),经测试 8G 的显存也能用,并且效果也相当不错。
这里我们主要还是分享ComfyUI中的使用。 图生视频流程详解: 1. 首先,我们启动“run_nvidia_gpu.bat”在弹出的URL中选择“Manager” 选择“Install Custom Nodes”安装节点,在弹出的窗口搜索“SVD” 安装第一个“ComfyUI-SVD”即可,然后再搜索一个“videohelpe”用于合成图片。安装即可。
大家好,这里是和你们一起探索 AI 的花生~之前为大家推荐过一些可以将图像转为动图或者短视频的 AI 工具,比如 LeiaPix Converter、Runway、Pika 等,今天再为大家推荐一种在本地免费实现图像转短视频的方式,即在 ComfyUI 中使用开源模型 Stable Video Diffusion...
在工作空间页面选择B4区,实例选择4090单卡,镜像选择应用镜像/comfyui-journey/v1.0.3,挂载网盘,数据集选择sd-base,然后点击创建即可。如下图: 2.2配置学术加速 实例创建完成后,在工作空间界面进入Jupyter页面,如图: 然后新建一个终端,并执行以下命令: 先使用学术加速 ...
使用control+c 终止程序,在/comfyui/models目录下新增了svd目录,其中有没下载完的模型文件,可以确认svd模型需要放在这个目录。将之前svd插件目录(./custom_nodes/ComfyUI-Stable-Video-Diffusion)下的模型文件迁移至该目录即可。 之前还有将svd模型放在 /comfyui/models/checkpoints/目录下,同样也迁移到/comfyui/models...
在工作空间页面选择B4区,实例选择4090单卡,镜像选择应用镜像/comfyui-journey/v1.0.3,挂载网盘,数据集选择sd-base,然后点击创建即可。如下图: 2.2配置学术加速 实例创建完成后,在工作空间界面进入Jupyter页面,如图: 然后新建一个终端,并执行以下命令: 先使用学术加速 ...