tensorflow中是否有一种简单的方法可以使任何模型并行运行而无需重新编程模型?就像在PyTorch中使用DataParallel方法
我是tensorflow的新手,因此非常感谢任何参考或代码示例。
答案 0 :(得分:0)
也许您可以修改tensorflow的配置协议并使用:
config = tf.ConfigProto(device_count={'GPU': GPU},
inter_op_parallelism_threads=NBR_THREADS,
intra_op_parallelism_threads=NBR_THREADS)
with tf.Session(config=config) as sess:
<run_your_code>