IP-adapter的github地址: https://github.com/tencent-ailab/IP-Adapter 2.ip-adapter生成效果怎么样: 官方对ip-adapter进行了测试,如下图,第一列是输入的图片参考,第二列是输入的其他控制参数。 最后一列是使用ip-adapter生成的效果,看第一行摩托车的测试能明显看出,ip-adapter的方法不仅在图像质量方面优于其他...
根据你选择的大模型版本不同,ControlNet模型栏会自动显示该SD模型版本下可用的IP-Adapter模型:预处理器有6个,通过预处理器的名称后缀可以看出,虽然IP-Adapter的模型有很多,但大体分为三类:Clip、FaceID以及新增的PulID:通过模型的名称后缀也可以看出该模型的对应类别,比如除了名称中有faceid和pulid的模型,其他...
1.检查webui版本是否是v1.6及以后的版本。 2.controlnet的ip-adapter模型是否安装并启用。如果未安装,请使用私信我“控制模型“将会自动发送给你下载地址,并且将controlnet模型放到stable-diffusion-webui\extensions\sd-webui-controlnet\medels或者stable-diffusion-webui\models\ControlNet中。 3.检查webui根目录\ext...
若要使用ip-adapter_face_id_plus,您需要额外下载一个名为clip_h.pth的文件,并将其放置在指定的文件夹中,如图所示。如果您之前已经安装过基于clip的ip-adapter,则可以跳过此步骤: 注意:FaceID类只提取面部特征,需要真实图片,不能使用卡通图片。使用时不用像Clip类的Face迁移模型一样,专门找面部占比较大的参考图...
另外,ip-adapter_face_id_plus需要额外下载一个clip_h.pth到如图所示的文件夹中。如果你已经安装过clip类ip-adapter,则可忽略: FaceID类只提取面部特征,需要真实图片,不能使用卡通图片。 使用时不用像Clip类的Face迁移模型一样,专门找面部占比较大的参考图。例如我这里就直接上传的是前面用过的一张图: 支持SD...
2、ip-adapter-plus_sdxl_vit-h: • SDXL的加强版模型,由于降低了ControlNet权重,所以红色头发略微体现出来,IPA强度最强。 3、ip-adapter_sdxl: • 使用大参数的CLIP-ViT-bigG训练的基础模型,相比小参数的ip-adapter_sdxl_vit-h基础模型而言,受到提示词的影响更敏感,红色头发和墨镜甚至1boy都体现出来了。
另外,ip-adapter_face_id_plus需要额外下载一个clip_h.pth到如图所示的文件夹中。如果你已经安装过clip类ip-adapter,则可忽略: FaceID类只提取面部特征,需要真实图片,不能使用卡通图片。 使用时不用像Clip类的Face迁移模型一样,专门找面部占比较大的参考图。例如我这里就直接上...
ip-adapter_clip_sdxl:适用于 Stable Diffusion XL 模型。模型有三个:ip-adapter_sd15:适用于Stable...
采用大参数CLIP-ViT-bigG训练的基础模型,相较于使用小参数的ip-adapter_sdxl_vit-h基础模型,对提示词的响应更为敏锐,能够更清晰地展现出红色头发、墨镜以及“1boy”的特征。 4)、ip-adapter_plus_composition_sdxl: 社区模型,只迁移构图。 Clip类针对SD1.5还有2个迁移面部特征的模型,使用它们时,我们尽量选择...
也可以去:https://huggingface.co/h94/IP-Adapter/tree/main下载,这里面有3个sd1.5的模型,2个sdxl的模型,下载后需要把bin后缀改成pth放入controlnet,不过要注意ip-adapter_sdxl_vit-h.bin这个模型用起来会报错,暂时不能用。 放好后,选择对应的模型运行,应该就没啥问题了。