从 GAN 到WGAN[2] 的优化,再到本文介绍的 LSGANs,再到最近很火的BigGAN[3],可以说生成式对抗网络的魅力无穷,而且它的用处也是非常奇妙,如今还被用在例如无负样本的情况下如何训练分类器,例如AnoGAN[4]。 LSGANs 这篇经典的论文主要工作是把交叉熵损失函数换做了最小二乘损失函数,这样做作者认为改善了传统 ...
条条大路通罗马LS-GAN:把GAN建立在Lipschitz密度上 tensorflow代码: https://github.com/255BITS/HyperGAN/pull/49 Loss-Sensitive Generative Adversarial Networks on Lipschitz Densities https://arxiv.org/abs/1701.06264
从 GAN 到WGAN[2]的优化,再到本文介绍的 LSGANs,再到最近很火的BigGAN[3],可以说生成式对抗网络的魅力无穷,而且它的用处也是非常奇妙,如今还被用在例如无负样本的情况下如何训练分类器,例如AnoGAN[4]。 LSGANs 这篇经典的论文主要工作是把交叉熵损失函数换做了最小二乘损失函数,这样做作者认为改善了传统 GA...