先试试 AdamW8bit 吧。 Max resolution:训练的最大分辨率,设置为样本图片的分辨率即可。 Enable buckets:启动后支持多种分辨率的样本图片,程序会自动裁切,这里我已经都裁切成768了,勾不勾选无所谓了。 Text Encoder learning rate:文本编码器的学习率,建议从0.00005开始,后面的Unet learning rate要比前面的大,设置成...
training_comment="this_LoRA_model_credit_from_bdsqlsz" # training_comment | 训练介绍,可以写作者名或者使用触发关键词 # Train related params | 训练相关参数 resolution="1024,1024" # image resolution w,h. 图片分辨率,宽,高。支持非正方形,但必须是 64 倍数。 batch_size=1 # batch size vae_batch...
--train_batch_size = 1, 2,3, 4-repeats = 1,2-learning_rate = 1.0 (Prodigy), 1e-4 (AdamW)-text_encoder_lr = 1.0 (Prodigy), 3e-4, 5e-5 (AdamW)-snr_gamma = None, 5.0-max_train_steps = 1000, 1500, 1800-text_encoder_training = regular finetuning, pivotal tuning (textual...
Image folder 是训练数据集的目录,也就是原图片的目录,注意只到 img 这一级,不是直接存放图片的目录,这里的完整路径是:/root/autodl-tmp/train/dudu/img 。 Output folder 是训练出的Lora模型保存的目录,训练过程中的采样图片也保存在这个目录下,和 Image folder 使用同一个上级目录就行了,这里的完整路径是:/...
Max Resolution 最大分辨率 根据图片情况设置。默认值为512,512。 Network Rank (Dimension) 模型复杂度 一般设置为64即可适应大部分场景。 Network Alpha 网络Alpha 建议可以设置较小值,Rank和Alpha设置会影响最终输出LoRA的大小。 Clip skip 文本编码器跳过层数 二次元选2,写实模型选1,动漫模型训练最初就有跳过一层...
found directory D:\sdlanuncher\LoRA_test\image\100_face contains 38 image files3800 train images with repeating.0 reg images.no regularization images / 正則化画像が見つかりませんでした[Dataset 0]batch_size: 2resolution: (512, 512)enable_bucket: Truenetwork_multiplier: 1.0min_bucket_reso: ...
resolution="1088,960" # image resolution w,h. 图片分辨率,宽,高。支持非正方形,但必须是 64 倍数。 batch_size=1 # batch size max_train_epoches=10 # max train epoches | 最大训练 epoch save_every_n_epochs=2 # save every n epochs | 每 N 个 epoch 保存一次 ...
Max resolution:训练的最大分辨率,设置为样本图片的分辨率即可。 Enable buckets:启动后支持多种分辨率的样本图片,程序会自动裁切,这里我已经都裁切成768了,勾不勾选无所谓了。 Text Encoder learning rate:文本编码器的学习率,建议从0.00005开始,后面的Unet learning rate要比前面的大,设置成 0.0001,设置这个值会导致...
Max resolution,训练图片的最大尺寸,根据自己图片集的最大分辨率填写。如果图片集里的图片分辨率大小不一,可以勾选右边的“Enable buckets 启用桶”。 下面是学习率和优化器的设置,比较重要,我们要单独来说说。 Optimizer(优化器),默认会使用AdamW8bit(下面会讲其他几个优化器),在AdamW8bit优化器时,学习率的设置参数...
These results show that consumer-grade GPUs are capable of training LoRas, especially when working with smaller resolutions like 512×512, which is the default for SD1.5. However, when training using higher-resolution images, such as 1024×1024 for SDXL, we quickly begin to run into VRAM limi...