我有一个带有两个GPU的系统,并且正在使用带有Tensorflow后端的Keras。 Gpu:0被分配给PyCUDA,PyCUDA正在执行一个独特的操作,该操作将被转发给Keras,并随批次而变化。因此,我想在gpu:1上运行Keras模型,同时将gpu:0分配给PyCUDA。
有没有办法做到这一点?通过先前的线程,我发现了一些折旧的解决方案。
答案 0 :(得分:0)
因此,我认为当前Keras中并没有有意义地实现此功能。找到了一种建议的解决方法,您只需使用Python的默认多处理库即可创建多个进程。
注意:当前,对于此设置,您需要生成新进程而不是派生它,以避免与PyCUDA后端库之一进行怪异的交互。