我使用以下代码进行并行化,但是,我无法做到这一点。它会抛出一些随机错误。我正在使用amazon aws进行培训。因此,当我运行此培训时,putty停止响应。 代码:
for d in ['/device:GPU:0','/device:GPU:1','/device:GPU:2', '/device:GPU:3', '/device:GPU:4','/device:GPU:5','/device:GPU:6','/device:GPU:7']:
with tf.device(d):
pred1 = cae(x, weights1, biases1, keepprob)
cost1 = calculateL2loss(pred1, tf.reshape(y, shape=[-1,dimension,dimension,1]))
sess = tf.Session(config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=True))
sess.run(init)
sess.run(optm1, feed_dict = {x:batch_xs_noisy, y:batch_xs, keepprob:1})
请建议我,在这种情况下如何进行并行编程。