1,降低判别器学习率和每个step重复学习次数,或加大生成器的学习率;2,调整生成器和判别器网络模型的...
D训练得太好,导致G陷入局部最优。可以让G多训练几次后再更新D, 或者让 D 重新初始化,再训练 D。
不大于0.4则不step 判别器,生成器按原样跑,这样判别器的loss 不会掉的太低。
1 提升G的学习率,降低D的学习率。2 G训练多次,D训练一次。3 使用一些更先进的GAN训练目标函数。
这时候出现了D loss,每完成一个epoch都会下降一些。鉴于此,大概是因为原始数据有好些学习无关的数据,...
为什么我G和D都用LSTM的时候,keras会报错TypeError: Second-order gradient for while loops not ...
你好,看您在训练的过程中,数据波动非常剧烈,给出的生成结果则相对平滑,请问是怎么做到的呢?另外,...
请问你的问题解决了吗,我也碰到了和你一样的问题,训练到几十轮的时候,出现g_loss上升,d_loss下...
如果你了解gan的数学背景的话 你这种情况是判别器太强了 调整generator和discriminator的训练比例 比如每五...
或者引入condition。还有,之前训AttGAN的时候G很差的时候,加了BN瞬间下降了,也可以试试。