一般的 Stable Diffusion WebUI 整合包或者镜像都已经安装了这个插件,如果你的还没有安装,需要先安装它。已经安装好的跳过这一小节即可。 方法是打开 Stable Dissusion WebUI 前端页面,进入“扩展插件”-“从网址安装”,在“扩展插件的git仓库网址”中输入:https://github.com/Mikubill/sd-webui-controlnet,然后...
简便的方法就是在WebUI中搜索并安装。如不能实现自动安装可在https://github.com/huchenlei/sd-webui-openpose-editor下载该插件后加压缩至Stable Diffusion根目录中的extensions文件夹中。 Controlnet Openpose实战 在Stable Diffusion WebUI中将Controlnet展开后把张目标姿势图片粘贴进去,Control Type选择Openpose后点击爆...
(工具实际上是stable-diffusion-webui的截图生成版。后面会有时间会基于动画师的角度进行迭代,迭代识别...
正常启动AUTOMATIC1111 Web UI。 转到扩展页面。 点击从URL安装选项卡。 在扩展git仓库的URL字段中输入扩展的URL。 等待安装完成的确认消息。 重新启动AUTOMATIC1111。(提示:不要使用“应用并重启”按钮。有时不起作用。完全关闭并重新启动Stable Diffusion WebUI) 另外,在已安装的扩展列表中,你也可以点击check for u...
近期大火的Stable Diffusion的确颠覆认知,对二次元爱好者来说,这么的爱不释手,可以随心所欲的控制生成,但是鉴别AI画作有个显而易见的方式,即看手部是否合理。也正是如此,很多不错的AI画作规避的方案是精挑细选出好的手指或者干脆不要带有手部的图片。
Stable Diffusion的生成效果是这样的。宇宙的演变:生物的进化:这成片质量妥妥达到了大片级别。试想一下,如果将Stable Diffusion的作图功能发展成为一种绘画工具,将其与Web UI相结合,会带来怎样的设计体验。现在,有这样一个项目,可以满足广大研究者的需求。项目地址:https://github.com/hlky/stable-diffusion Doc...
最近又收集了一些质量非常高的设计类 Stable Diffusion WebUI 模型,今天推荐其中五款,包括产品摄影场景图,国潮风插画,MBE 风格图标等,下载后安装到 WebUI 中,就能轻松生成高质量的设计素材。 一、WFProduct 电商场景 这是一个专门为电商摄影场景训练的 lora 模型,可以生成各种极具设计感的场景图,效果逼真,无论是...
从这一节开始开始我们正式开始学习 SD (Stable Diffusion)第一节我们从 Web UI 开始讲解 基于使用最多的 文生图 模块来讲解最常用的一些操作 一、WEB UI 页面 如果你使用是 【5 分钟快速上手体验AI绘画】中介绍的 Kaggle 搭建的 SD,那么你进入到 web ui 页面后可以看到下面这个页面 其中:模型选择: 模型对于...
注意,姿态的预处理器还有其他几个 我自己使用的经验,一般手指比较清晰能识别出来的话,或者你手动调整能调整好就用带手部的预处理器,如果不行就用只识别姿态的处理器。 脸部的话因为点比较多,最好是近景特写脸部得照片用脸部的识别,否则生成的图像可能不太符合你的口味藍。 文章链接...
下载完成后,需要关闭Stable-Diffusion-webui的页面,然后返回到JupyterLab界面,暂停运行,在开启后,重新启动webui界面,就可以看到OpenPose编辑器的入口了。 根据下方的截图标注的数字,我们介绍一下具体对应人体的位置;1、眼睛;2、肩关节;3、肘关节;4、腕关节;5、髋关节;6、膝关节;7、踝关节; ...