我目前正在使用改进的Wasserstein GAN this one,它具有特殊的损失功能。 我的问题是,我不太了解此损失函数的输出值的含义。
功能如下:
def wasserstein_loss(y_true, y_pred):
return K.mean(y_true * y_pred)
他们描述如下:
Wasserstein损失函数的计算非常简单。在标准GAN中, 鉴别器有一个S型输出,代表样本被 真实的或生成的。但是,在Wasserstein GAN中,输出是线性的,没有 激活功能!歧视者不希望被限制为[0,1],而是希望 使其真实和生成样本的输出之间的距离为 尽可能大。 实现此目的的最自然的方法是标记生成的样本-1和实数 样本1,而不是普通GAN中使用的0和1,因此将 标签的输出将立即给您带来损失。 请注意,这种损失的性质意味着可能(并且经常会) 小于0。
但是我可以用此输出得出什么结论呢?值比高/小值更接近0“更好”吗?积极的人比消极的人“好”吗?还是完全不同的东西?