标签: tensorflow multi-gpu
我从original white paper了解到,Tensorflow采用贪婪的方法来决定如何在现有设备之间分配操作。但是,Using multiple GPUs上唯一可用的多gpu示例表明,Operations会被收集到“塔”中并明确分配给特定设备。是否可以简单地定义这些塔的多个副本并让Tensorflow自动将它们分配给不同的GPU?