我正在尝试使用张量流和keras(用于credit card fraud data from kaggle)实现WGAN-GP模型。
我主要遵循keras website中提供的示例代码以及互联网上的其他几个示例代码(但是将它们从图像更改为我的数据),而且非常简单。
但是,当我要更新评论者时,经过几批操作后,损失的重量与评论者权重的梯度就变成了nan
。这就导致评论家的权重变为nan
,之后生成器的权重变为nan
,...所以一切都变成了nan
!
我使用tf.debugging.enable_check_numerics
并发现问题是由于经过一些迭代后渐变中出现了-Inf
。
这与损失中的梯度罚分项直接相关,因为当我删除时,问题就消失了。
请注意,gp
本身不是nan
,但是当我得到评论家权重的损失梯度(以下代码中的c_grads
)时,它包含{ {1}},然后以某种方式变成全部-Inf
。
我检查了数学和网络体系结构是否存在可能的错误(例如,梯度消失的可能性等),并且在代码中检查了可能有几个小时的错误。但是我被卡住了。
如果有人能找到问题的根源,我将不胜感激
注意: 请记住,评论者的输出和损失函数与原始论文略有不同(因为我试图使其成为有条件的),但这与问题无关,因为正如我之前所说,当我这样做时,整个问题就消失了只需删除梯度惩罚项即可
这是我的批评家:
nan
这是我的梯度罚函数:
critic = keras.Sequential([
keras.layers.Input(shape=(x_dim,), name='c-input'),
keras.layers.Dense(64, kernel_initializer=keras.initializers.he_normal(), name='c-hidden-1'),
keras.layers.LeakyReLU(alpha=0.25, name='c-activation-1'),
keras.layers.Dense(32, kernel_initializer=keras.initializers.he_normal(), name='c-hidden-2'),
keras.layers.LeakyReLU(alpha=0.25, name='c-activation-2'),
keras.layers.Dense(2, activation='tanh', name='c-output')
], name='critic')
这是评论家的更新代码
def gradient_penalty(self, batch_size, x_real, x_fake):
# get the random linear interpolation of real and fake data (x hat)
alpha = tf.random.uniform([batch_size, 1], 0.0, 1.0)
x_interpolated = x_real + alpha * (x_fake - x_real)
with tf.GradientTape() as gp_tape:
gp_tape.watch(x_interpolated)
# Get the critic score for this interpolated data
scores = 0.5 * (self.critic(x_interpolated, training=True) + 1.0)
# Calculate the gradients w.r.t to this interpolated data
grads = gp_tape.gradient(scores, x_interpolated)
# Calculate the norm of the gradients
# Gradient penalty enforces the gradient to stay close to 1.0 (1-Lipschitz constraint)
gp = tf.reduce_mean(tf.square(tf.norm(grads, axis=-1) - 1.0))
return gp
也请注意:如您所见,我不会使用任何交叉熵或其他自写函数,否则会被零除。
答案 0 :(得分:0)
因此,在深入研究互联网之后,事实证明这是由于tf.norm
的数值不稳定(以及其他一些功能)所致。
对于norm
函数,问题在于,当计算其梯度时,其值出现在分母中。因此,d(norm(x))/dx
处的x = 0
会变成0 / 0
(这是我一直在寻找的神秘division-by-zero
!)
问题是计算图有时会以a / a
之类的结尾,其中a = 0
的数值未定义,但存在极限。而且由于tensorflow的工作方式(使用链规则计算梯度),它会导致nan
s或+/-Inf
s。
最好的方法可能是让张量流检测这些模式并将其替换为分析简化的等效模式。但是直到他们这样做之前,我们还有另一种方法,那就是使用称为tf.custom_gradient
的东西通过我们的自定义渐变(related issue on their github)来定义我们的自定义函数
尽管就我而言,实际上还有一个更简单的解决方案(尽管当我不知道tf.norm
是罪魁祸首时,这并不简单):
所以代替:
tf.norm(x)
您可以使用:
tf.sqrt(tf.reduce_sum(tf.square(x)) + 1.0e-12)
注意:请注意尺寸(如果x是矩阵或张量,则需要计算行或列范数)!这只是一个示范概念的示例代码
希望它对某人有帮助