TensorFlow分布式运行时模型并行CIFAR-10

时间:2016-03-10 06:44:45

标签: python runtime distributed tensorflow

我尝试修改CIFAR-10示例以在新的TensorFlow分布式运行时上运行。但是,在尝试运行程序时出现以下错误:

InvalidArgumentError: Cannot assign a device to node 'softmax_linear/biases/ExponentialMovingAverage': 
Could not satisfy explicit device specification '/job:local/task:0/device:CPU:0'

我使用以下命令启动集群。在我运行的第一个节点上:

bazel-bin/tensorflow/core/distributed_runtime/rpc/grpc_tensorflow_server --cluster_spec='local|10.31.101.101:7777;10.31.101.224:7778' --job_name=local --task_id=0

...在我运行的第二个节点上:

bazel-bin/tensorflow/core/distributed_runtime/rpc/grpc_tensorflow_server --cluster_spec='local|10.31.101.101:7777;10.31.101.224:7778' --job_name=local --task_id=1

对于CIFAR-10 multi-GPU code,我进行了简单的修改,替换了train()函数中的两行。以下一行:

with tf.Graph().as_default(), tf.device('/cpu:0'):

...替换为:

with tf.Graph().as_default(), tf.device('/job:local/task:0/cpu:0'):

以及以下一行:

with tf.device('/gpu:%d' % i):

...替换为:

with tf.device('/job:local/task:0/gpu:%d' % i):

根据我的理解,第二次替换应该处理模型替换。运行一个更简单的示例,如下面的代码,工作正常:

with tf.device('/job:local/task:0/cpu:0'):
    c = tf.constant("Hello, distributed TensorFlow!")
    sess.run(c)
    print(c)

1 个答案:

答案 0 :(得分:1)

我无法从您的程序中看出来,但我的猜测是您还必须修改line that creates the session以指定您的某个工作任务的地址。例如,根据上面的配置,您可以写:

sess = tf.Session(
    "grpc://10.31.101.101:7777",
    config=tf.ConfigProto(
        allow_soft_placement=True,
        log_device_placement=FLAGS.log_device_placement))

实际上,我们一直在努力改进该错误消息,以减少它的混乱。如果您在GitHub中更新到最新版本并运行相同的代码,您应该会看到一条错误消息,说明为什么无法满足设备规范。