标签: python tensorflow deep-learning gpu distributed-computing
为什么当我在两台机器上并行运行TensorFlow mnist_replica.py时,比在单台机器/ GPU上进行训练要花更长的时间。两者使用相同的网络结构,并且参数相同。 train_steps=1000时,并行训练需要十多分钟的时间,而单个GPU只需四秒钟。 谢谢!
mnist_replica.py
train_steps=1000