接下来,我将结合这个案例带你走进 Stable Diffusion 的世界,帮你系统性地了解并掌握这神奇AI绘画魔法。 虽然我们把这个过程称之为AI绘画,但实际上它并不是像人类画图一样打草稿、构线描边,再去上色、对细节加工……这样按部就班地去完成一幅画作的,它采取了一个人类不曾设想的路径 —— Diffusion(扩散)。 一...
不管是屏幕上的显像管效果,还是绣布上面的刺绣效果,虽然在提示词中没有给出明确的提示词,Stable Diffusion 3也给welcome、good night这些文字使用了最合适的效果展现,文字和画面融合堪称完美。 之后放出技术细节和开放测试之后,我们也会再上手测试一波,欢迎大家持续关注我们。 不过测试什么的都已经是次要的了,从目前展...
本期我们想聊一下文生动画(Txt2Anime),用到的是Deforum这个插件,这想想就“泰库辣”。值得注意的是,最近官方刚出的文生动画Animation SDK文生动画也是基于此的,本期将带你入门文生动画——新世界。 Deforum是用于制作动画的开源免费软件。它使用 Stable Diffusion的图生图功能生成一系列图像并将它们拼接在一起以...
在stable diffusion采样阶段,①首先用文本提示词作为指导条件,利用条件采样对图像进行去噪;② 采样器使用无条件采样对同一图像进行去噪,这里不使用文本指导,但它仍然会扩散到某一个图像,比如说下面的篮球或者红酒杯(它可以是任何随机主体);③ 扩散过程中实际上是计算条件采样和无条件采样的差异,并按照采样步数重复这个过...
最近使用 stable diffusion 软件生成 ai 图片,完全是一个小白在瞎摸索,想把了解到的一些东西记录下来。…
一、Diffusion:眼一闭一睁,一张图画好了 有一个非常形象的方式,来解释 Diffusion 的原理。 这是我家的傻狗,你可以将自己的角色带入到执行绘画指令的AI中,现在让你把这幅画用宫崎骏风格重新绘制一遍,你做得到吗?你可以尝试着把眼睛眯成一条缝去看它(如果你近视可以摘掉自己的眼镜),它是不是变得模糊了?保持这...
docker-prompt-generator 是一个开源项目,可以利用模型反推出提示词,让你偷偷懒,无需琢磨怎么写prompt,只需要找一个差不多的模型反推一下,直接用就好了,支持支持 MidJourney、Stable Diffusion 等。 好比MidJourney官方新推出的功能,它支持一键从图片中解析出Prompt描述,并能够基于描述进行扩展,以便二次图片生成。我们...
目前展现出的Stable Diffusion 3的表现基本上可以100%的还原提示词。马的那幅图,还能看到马踩在球上,球发生了形变。 这次更新的一个重点是单词的拼写能力。比如: Prompt:Photo of an 90's desktop computer on a work desk, on...
排队链接:https://stability.ai/stablediffusion3 本次更新重点: 在图片质量、多主题提示(multi-subject prompts)和单词拼写能力方面有大幅提升; 使用了新型扩散变压器(类似于Sora)并结合了流量匹配和其他改进; 模型尺寸从 800m 到 8B 参数,将适用于各种设备的部署; ...
Stable Diffusion 是 2022 年发布的深度学习文字到图像生成模型。它主要用于根据文字的描述产生详细图像,能够在几秒钟内创作出令人惊叹的艺术作品,本文是一篇使用入门教程。 硬件要求 建议使用不少于 16 GB 内存,并有 60GB 以上的硬盘空间。需要用到 CUDA 架构,推荐使用 N 卡。(目前已经有了对 A 卡的相关支持,但...