Tensorflow' nan'损失和' -inf'权重,即使有0学习率

时间:2017-02-06 01:28:51

标签: python machine-learning tensorflow neural-network conv-neural-network

我正在AWS GPU机器上训练深度卷积神经网络。 数据集 - >谷歌SVHN 训练大小 - > 200000 +

我得到了损失=' nan'和W =' -inf'

即使学习率为0

Loss at step 0: 14.024256
Minibatch accuracy: 5.8%
Learning rate :  0.0
W :  [ 0.1968164   0.19992708  0.19999388  0.19999997]
b :  [ 0.1  0.1  0.1  0.1]        

Loss at step 52: 14.553226
Minibatch accuracy: 5.9%
Learning rate :  0.0
W :  [ 0.19496706  0.19928116  0.19977403  0.1999999 ]
b :  [ 0.1  0.1  0.1  0.1]

# STEP 53 ---> LOSS : NAN, ALL WEIGHTS STILL OKAY
Loss at step 53: nan
Minibatch accuracy: 6.4%
Learning rate :  0.0
W :  [ 0.19496706  0.19928116  0.19977403  0.1999999 ]
b :  [ 0.1  0.1  0.1  0.1]

# STEP 54 ---> LOSS : NAN, WEIGHTS START GOINT TO -INF
Loss at step 54: nan
Minibatch accuracy: 49.2%
Learning rate :  0.0
W :  [       -inf        -inf  0.19694112        -inf]
b :  [-inf -inf  0.1 -inf]

# STEP 54 ---> LOSS : NAN, W & B  -INF
Loss at step 55: nan
Minibatch accuracy: 46.9%
Learning rate :  0.0
W :  [-inf -inf -inf -inf]
b :  [-inf -inf -inf -inf]

我尝试过以下技巧:

  1. 使用了几种不同的优化器(Adam,SGD等)
  2. 在最后一层使用不同的激活功能(ReLU,Sigmoid,tanH)
  3. 以不同方式初始化权重和偏见
  4. 尝试了不同的学习率和降低率(从0.001到0.0001)
  5. 我认为我的数据集中可能存在错误,因此首先删除了10000个条目。没有工作
  6. 这些东西似乎都不适合我。 我还在getting' 1500步后损失。

    我的代码:

    重量初始化

    W1 = tf.Variable(tf.truncated_normal([6, 6, 1, K], stddev=0.1))    
    B1 = tf.Variable(tf.constant(0.1, tf.float32, [K]))
    # Similarly W2, B2, W3, B3, W4 and B4
    
    W5_1 = tf.Variable(tf.truncated_normal([N, 11], stddev=0.1))
    B5_1 = tf.Variable(tf.constant(0.1, tf.float32, [11]))
    # Similarly W5_2, B5_2, W5_3, B5_3, W5_4, B5_4, W5_5, B5_5, 
    
    # Model
    Y1 = tf.nn.relu(tf.nn.conv2d(X, W1, strides=[1, 1, 1, 1], padding='SAME') + B1)
    # Similarly Y2 and Y3 with stride 2
    
    shape = Y3.get_shape().as_list()
    YY = tf.reshape(Y3, shape=[-1, shape[1] * shape[2] * shape[3]])
    Y4 = tf.sigmoid(tf.matmul(YY, W4) + B4)
    YY4 = tf.nn.dropout(Y4, pkeep)
    
    Ylogits_1 = tf.matmul(YY4, W5_1) + B5_1
    # Ylogits_2,3,4,5 
    
    Y_1 = tf.nn.softmax(Ylogits_1)
    # Y_2,3,4,5
    

    损失

    cross_entropy = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(Ylogits_1, Y_[:,1])) +\
    # ....... (Ylogits_5, Y_[:,5]))
    
    train_prediction = tf.pack([Y_1, Y_2, Y_3, Y_4, Y_5])    
    train_step = tf.train.AdamOptimizer(alpha).minimize(cross_entropy)
    
    W_s = tf.pack([tf.reduce_max(tf.abs(W1)),tf.reduce_max(tf.abs(W2)),tf.reduce_max(tf.abs(W3)),tf.reduce_max(tf.abs(W4))])
    b_s = tf.pack([tf.reduce_max(tf.abs(B1)),tf.reduce_max(tf.abs(B2)),tf.reduce_max(tf.abs(B3)),tf.reduce_max(tf.abs(B4))])
    
    model_saver = tf.train.Saver()
    

    Tensorflow会话

    for step in range(num_steps):
        # I have set the Learning Rate = 0
        learning_rate = 0
        batch_data = train_data[step*batch_size:(step + 1)*batch_size, :, :, :]
        batch_labels = label_data[step*batch_size:(step + 1)*batch_size, :]
    
        feed_dict = {X : batch_data, Y_ : batch_labels, pkeep : 0.80, alpha : learning_rate}
        _, l, train_pred, W, b = session.run([train_step, cross_entropy, train_prediction, W_s, b_s], feed_dict=feed_dict)
    
        if (step % 20 == 0): 
            print('Loss at step %d: %f' % (step, l))
            print('Minibatch accuracy: %.1f%%' % acc(train_pred, batch_labels[:,1:6]))
            print('Learning rate : ', learning_rate)
            print('W : ', W)
            print('b : ', b)
            print('    ')
    

    由于如果学习率为0,则不会进行学习,损失和权重如何变化并且可以达到nan和-inf。

    感谢任何帮助。

3 个答案:

答案 0 :(得分:2)

当一个标签超出范围时,我已经看到了这种情况。你能检查你的标签是否都在(0 - (num_labels-1))?

的范围内

答案 1 :(得分:2)

虽然我不能肯定地说您的代码有什么问题,但我可以推荐两种调试NaN和Inf的方法。

第一个是简单地查看代码并查找可能未在其输入上定义的任何操作。我立刻想到的操作(因为它们很常见)是除法(按0)和记录(负值)。这包括部分代码,这是不明显的,因为您应用了一个更复杂的函数,需要进行这些操作。在您的代码中,这包括s tf.reduce_mean(如果您的输入集合总和为0,则包括有问题的除法 - 如果长度为0,则可能会发生这种情况。)

第二个是tensorflow最有用的操作之一:tf.add_check_numerics_ops创建一个op(即需要使用session.run调用的操作),它将告诉你哪个计算节点是inf的{​​{1}} ...

答案 2 :(得分:0)

我对CNN实施有类似的问题。在执行了其他答案的所有检查后(断言输入和标签值在范围内,没有被零除等),问题仍然存在:经过一个训练步骤,CNN会在输出(logit)上产生nan-s。 / p>

有趣的是,我偶然发现了一个“解决方法”:如果我将tf.train.AdamOptimizer替换为tf.train.RMSPropOptimizer,则nan值不再出现。这非常令人困惑。

希望这对某人有帮助。当我找到更多信息时,我将更新答案。