改进的Wasserstein GAN损失的输出值背后的“含义”是什么

时间:2019-05-29 14:34:38

标签: python keras generative-adversarial-network

我目前正在使用改进的Wasserstein GAN this one,它具有特殊的损失功能。 我的问题是,我不太了解此损失函数的输出值的含义。

功能如下:

def wasserstein_loss(y_true, y_pred):
    return K.mean(y_true * y_pred)

他们描述如下:

  

Wasserstein损失函数的计算非常简单。在标准GAN中,       鉴别器有一个S型输出,代表样本被       真实的或生成的。但是,在Wasserstein GAN中,输出是线性的,没有       激活功能!歧视者不希望被限制为[0,1],而是希望       使其真实和生成样本的输出之间的距离为       尽可能大。       实现此目的的最自然的方法是标记生成的样本-1和实数       样本1,而不是普通GAN中使用的0和1,因此将       标签的输出将立即给您带来损失。       请注意,这种损失的性质意味着可能(并且经常会)       小于0。

但是我可以用此输出得出什么结论呢?值比高/小值更接近0“更好”吗?积极的人比消极的人“好”吗?还是完全不同的东西?

0 个答案:

没有答案