在不同线程上运行的两个Tensorflow会话之间共享数据

时间:2019-05-31 09:27:42

标签: python tensorflow keras

我试图在两个不同的线程上并行运行两个keras模型。我希望使用一个模型(张量类型)的输出作为在不同线程上运行的另一个模型的输入。

我想到的解决方案:将模型1的输出存储在全局队列(存储在CPU内存中)中,模型2的输出应从该队列中读取。但是由于Model 1的输出存在于GPU上,因此存在GPU到CPU传输的开销。现在,我的Model 2也正在GPU上运行,而Model 2必须使用相同的队列(存在于CPU内存中)将其加载到GPU中。我希望尽量减少CPU和GPU之间的数据传输。

0 个答案:

没有答案