Tensorflow。内核在训练时死亡。窗口蟒蛇

时间:2017-01-09 10:25:01

标签: python debugging tensorflow anaconda

   # Import data

    from tensorflow.examples.tutorials.mnist import input_data
    import tensorflow as tf

    mnist = input_data.read_data_sets('/tmp/tensorflow/mnist/input_data', one_hot=True)

    # Create the model

    x = tf.placeholder(tf.float32, [None, 784])
    W = tf.Variable(tf.zeros([784, 10]))
    b = tf.Variable(tf.zeros([10]))
    k = tf.matmul(x, W) + b
    y = tf.nn.softmax(k)
    i = 0

    # Define loss and optimizer

    y_ = tf.placeholder(tf.float32, [None, 10])
    learning_rate = 0.5
    cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(k, y_))
    train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

    print ("Training")
    sess = tf.Session()
    init = tf.global_variables_initializer() #.run()
    sess.run(init)
    for _ in range(1000):

        print(i)
        batch_xs, batch_ys = mnist.train.next_batch(100)
        print(i)
        sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
        print(i)
        i=i+1


    print ('b is ',sess.run(b))
    print('W is',sess.run(W))

解释

这是使用softmax的MNIST代码。 问题出现在

sess.run(train_step,feed_dict = {x:batch_xs,y_:batch_ys})

在for循环中

内核死了并重新启动并显示任何错误消息。 也许代码不是问题,因为它适用于其他人。

我正在使用Windows10 Anaconda。

有什么问题?

1 个答案:

答案 0 :(得分:0)

我遇到了与你类似的问题。您可能已安装cudacudnn,并且正在tensorflow-gpu上运行代码。

就我而言,我最初安装了cuda8.0cudnn v6.0 for cuda8.0,并且内核死机问题。

然后我将cudnn版本更改为cudnn v5.1 for cuda8.0并解决了这个问题。现在我的环境工作正常。