假设我有一个keras模型model0
和model1
以及数据集data0
和data1
的两个实例。如果我有两个或多个GPU,有没有一种方法可以训练{{1}上的model0
上的data0
和{{1}上的GPU0
上的model1
} 在平行下?到目前为止,我发现的所有方法都将单个模型的训练划分为多个GPU。
谢谢!
答案 0 :(得分:1)
多处理怎么样?
您只需在多处理池中执行两次功能即可:
您需要考虑的事情:
因此,基本上在主程序和多处理工具中的函数之间传递keras / tensorflow会话是一个难题。但是,如果将函数中所有与keras / tensorflow相关的内容保持不变,并以不同的方式屏蔽GPU,那么您就很好了。