“图生图”是 Stable Diffusion的 核心功能之一,它的主要能力是根据现有的图片 + 提示词生成新的改造图片,这在日常的工作和生活中都特别有用。 话不多说,让我们看看它都有什么神奇的魔法吧。 基本使用本节以生…
Stable Animation SDK可以将设计师的创意迅速转化为3D模型,从而提高设计效率。 影视制作:在影视制作中,Stable Animation SDK可以快速将剧本中的角色和场景转化为3D模型,以便于导演和演员更好地理解和预览影片内容。四、总结Stable Animation SDK让文本描述变3D模型的技术具有显著的优势。它提高了设计效率和开发质量,同时降...
注:模型文件有 2 种格式,分别是 .ckpt(Model PickleTensor) 和 .safetensors(Model SafeTensor),据说 .safetensors 更安全,这两种格式 stable-diffusion-webui 都支持,随意下载一种即可。 将下载好的模型文件放到 stable-diffusion-webui\models\Stable-diffusion 目录下: 放置好模型文件之后,需要重启一下 stable...
Stable Diffusion WebUI 以指定配置参数启动,并从 Amazon EFS 中加载基础模型文件。Queue Agent 从任务...
一系列探索扩散模型扩散形式的探索,Bit-Diffusion、Variational-Diffusion、Cold-Diffusion、Soft-Diffusion、Non-uniform Diffusion、Retrieval-Augmented Diffusion。快速采样的进一步发展:DPM-Solver、DFNO等。更多的应用:做3D生成的DreamFusion(荣获ICLR 2023 Best Paper),做视频生成的Video Diffusion,做图像重建的DDRM...
大模型更偏向工程领域,对于stable diffusion这种大模型,普通人以个人或者以小型实验室为单位是很难从规模上做出突破的,这其实也是好事,说明AI领域正在一步步走向成熟。事实上,以Google为代表的大公司还是无私慷慨的,将自己训练出的模型直接免费开源,还提供了Google Colab实验平台,国内的百度也对标开发了AI Studio平台,...
conda create-ncoreml_stable_diffusionpython=3.8-y 等待上面的命令执行完毕,我们指定的名为coreml_stable_diffusion的环境就初始化好啦,环境使用的具体 Python 版本为 3.8 (虚拟环境的版本可以和系统不一样)。 当然,默认创建好之后,并不会直接切换到创建好的新环境,我们还需要使用命令,来完成环境的切换。
1、美术、3D资产及场景生成 近年来,AI生成2D图像的技术已成熟,主流产品如Stable Diffusion、DALLE-2等多以扩散模型为技术路线。游戏引擎本身也有推出相关功能,例如Unity的Unity ArtEngine,可以通过API连接外部的AI图片生成工具,帮助角色立绘制作、材质和贴图生成等。而3D资产生成是生成式AI的热门方向之一,许多技术大厂和创...
文本生成领域的探索:Diffusion-LM、Diffusion-Seq、DDCap、UniD3。 3D生成上的进一步探索:Render3D、Magic3D、Point-E、MeshDiffusion。 视频生成的进一步探索:Latent Video Diffusion、Video Fusion 医学图像上的探索:MedSegDiff。 图像编辑上的探索: 1)Text-driven(文本驱动):Prompt-to-prompt、Imagic、InstructPix2Pix...
1、美术、3D资产及场景生成 近年来,AI生成2D图像的技术已成熟,主流产品如Stable Diffusion、DALLE-2等多以扩散模型为技术路线。游戏引擎本身也有推出相关功能,例如Unity的Unity ArtEngine,可以通过API连接外部的AI图片生成工具,帮助角色立绘制作、材质和贴图生成等。而3D资产生成是生成式AI的热门方向之一,许多技术大厂和创...