从上面看来,WGAN好像在代码上很好实现,基本上在原始GAN的代码上不用更改什么,但是它的作用是巨大的 ◆ WGAN理论上给出了GAN训练不稳定的原因,即交叉熵(JS散度)不适合衡量具有不相交部分的分布之间的距离,转而使用wassertein距离去衡量生成数据分布和真实数据分布之间的距离,理论上解决了训练不稳定的问题。 ◆ 解决了模式
我测试网上有的WGAN-GP的例子,发现在训练mnist的时候,wgan-gp的wasserstein距离一开始会一直增加,随后...
你的D两个输入,额外还有一个label,可能需要再添加个梯度惩罚,另外wgan_gp训练似乎前面就是WD先增加...
从上面看来,WGAN好像在代码上很好实现,基本上在原始GAN的代码上不用更改什么,但是它的作用是巨大的 ◆ WGAN理论上给出了GAN训练不稳定的原因,即交叉熵(JS散度)不适合衡量具有不相交部分的分布之间的距离,转而使用wassertein距离去衡量生成数据分布和真实数据分布之间的距离,理论上解决了训练不稳定的问题。 ◆ 解决了...
你的D两个输入,额外还有一个label,可能需要再添加个梯度惩罚,另外wgan_gp训练似乎前面就是WD先增加...
我的结果不知道为啥,WGAN-gp加了BN层收敛到了FID500,就降不下去了,不加BN层,训练就比较差,FID...
g_loss一直往上飙大概是代码有问题
我也遇到了这个问题,请问楼主解决了吗