Save every N epochs,写1则每训练一轮便保存一次LoRA模型,比如:如果前面Epoch设置5轮,这里写1,则最后训练完成可以得到5个LoRA模型。Network Rank(Dimension)维度,代表模型的大小。数值越大模型越精细,常用4~128,如果设置为128,则最终LoRA模型大小为144M。一般现在主流的LoRA模型都是144M,所以根据模型大小...
假设训练30张图片,每张训练50次,batch size为2,epoch为10,则总共训练次数为30*50*10/2=7500次,我们需要反复调整参数使得模型不会欠拟合或过拟合 Network Rank(Dimension) 指生成器和判别器的网络结构大小和复杂度 通常越高越能学习到复杂的特征,可以生成更复杂多样的图片,但会导致训练时间更长并且对显存要求更高...
LR Scheduler:选择LR Scheduler,优化器选择:lion ⑨Network Rank (Dimension):128 Network Alpha:64 因为是512*512分辨率所以默认 ⑩高级配置里:Clip skip(剪辑跳过):选择2 设置好之后开始训练 可以看到已经开始训练由于我开着录屏所以占用或超过6G显存,你们训练时只要关掉后台程序,保留kohya_ss界面即可,6G也可以使用...
7、文本编码器学习率和Unet学习率的关系:没有必然的1/5~~1/10倍率关系、庞大数据集下Unet甚至可以低过text。 8、Network Rank(dimension)(网络大小):强化训练细节,建议128-192,128以上增加提升相对不明显。 9、Network Alpha(网络alpha):建议96以上,弱化训练细节,有正则化效果,可以与dim同步增加。 10、让AI训练...
3.4.21Network Rank(Dimension) 上述解释的“附加小神经网络”中间层的神经元数量(详细信息请参见上图)。 神经元数量越多,可以保留的学习信息越多,但学习到学习目标以外的不必要信息的可能性就增加,LoRA文件大小也随之增加。 通常,它通常设置为最大 128,但有报告称 32 就足够了。
network_module:选择训练的LoRA模型结构,可以从["networks.lora", "networks.dylora", "lycoris.kohya"]中选择,最常用的LoRA结构默认选择"networks.lora"。 network_dim:设置LoRA的RANK,设置的数值越大表示表现力越强,但同时需要更多的显存和时间来训练。
所以network_dim的设置需要根据任务主题去调整。 一般来说,在SDXL的1024*1024分辨率训练基础上,可以设置network_dimension = 128,此时SDXL LoRA大小约为686MB。 【4】network_alpha对SDXL LoRA模型训练的影响 network_alpha是一个缩放因子,用于缩放模型的训练权重 。network_alpha设置的越高,LoRA模型能够学习更多的细...
训练235张512X512分辨率的照片,采用3060-12GB显卡大概要1小时43分钟,其中详细的训练参数是:train batch size选1, Epoch选1,learning rate选0.0001,LR warmup (% of steps) 学习率预热选10, Network Rank (Dimension) (网络小大)选64,num_repeats训练次数为100次(见下图)。
Network Rank (Dimension) 模型复杂度 一般设置为64即可适应大部分场景。 Network Alpha 网络Alpha 建议可以设置较小值,Rank和Alpha设置会影响最终输出LoRA的大小。 Clip skip 文本编码器跳过层数 二次元选2,写实模型选1,动漫模型训练最初就有跳过一层,如使用训练素材也是二次元图像,再跳一层=2。 Sample every n ...
8.网格维度Network Rank Alpha作用:搭建合适的LoRA模型基底。被称之为“网络”(Network)1.Network PankPank:可以翻译成网络的“秩”。与矩阵的“秩”是一个概念。也被称为Dimension(Dim)。Network Pank的值越高,从原始矩阵里抽出来的行列就越多。要微调得到的的数据量也就越多。进而能够容纳更复杂的概念。它...