(MNIST - GAN)首次迭代后,判别器和生成器错误降至接近零

时间:2017-10-13 13:26:59

标签: python machine-learning tensorflow mnist generative

为了深入了解生成对抗网络,我正在尝试使用tensorflow基于此Stanford university assignment为MNIST数据集实现GAN。

我仔细检查并研究了我对给定练习的解决方案,并使测试通过。但是,我的发电机只会产生噪音。

我很确定我的帮助函数是正确的,所有测试都通过了,我在网上找到了完全相同的实现。那么它可以 出错只是鉴别器和发电机架构:

def discriminator(x):
    with tf.variable_scope("discriminator"):
        l_1 = leaky_relu(tf.layers.dense(x, 256, activation=None))
        l_2 = leaky_relu(tf.layers.dense(l_1, 256, activation=None))
        logits = tf.layers.dense(l_2, 1, activation=None)
        return logits

def generator(z):
    with tf.variable_scope("generator"):
        l_1 = tf.maximum(tf.layers.dense(z, 1024, activation=None), 0)
        l_2 = tf.maximum(tf.layers.dense(l_1, 1024, activation=None), 0)
        img = tf.tanh(tf.layers.dense(l_2, 784, activation=None))
        return img

我发现第一次迭代中生成器和鉴别器错误几乎接近于零。

Iter: 0, D: 1.026, G:0.6514
Iter: 50, D: 2.721e-05, G:5.066e-06
Iter: 100, D: 1.099e-05, G:3.084e-06
Iter: 150, D: 7.546e-06, G:1.946e-06
Iter: 200, D: 3.386e-06, G:1.226e-06
...

学习率较低,例如1e-7,鉴别器和发生器的错误率缓慢衰减,但最终会降至零,并产生噪声。

Iter: 0, D: 1.722, G:0.6772
Iter: 50, D: 1.704, G:0.665
Iter: 100, D: 1.698, G:0.661
Iter: 150, D: 1.663, G:0.6594
Iter: 200, D: 1.661, G:0.6574
...

我得到了张量流图并运行了我的实验,但到目前为止还没有解释任何有意义的事情。 如果您有任何建议或可以推荐一种调试技术,我将很高兴听到它。

根据要求,这是我的GAN代码 - 损失:

def gan_loss(logits_real, logits_fake):
    labels_real = tf.ones_like(logits_real)
    labels_fake = tf.zeros_like(logits_fake)

    d_loss_real = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_real, labels=labels_real)
    d_loss_fake = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake)
    D_loss = tf.reduce_mean(d_loss_real + d_loss_fake)

    G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake))
    return D_loss, G_loss

1 个答案:

答案 0 :(得分:2)

据我了解这个模型你应该改变这个:

G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
  logits=logits_fake, labels=labels_fake))

到此:

G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
  logits=logits_fake, labels=tf.ones_like(logits_fake)))