是否可以从每个GPU中尽可能地利用Keras?
例如,对于2个10GB的GPU和1 GB的内存模型,我希望通过将训练集分开并在每个GPU上克隆模型10次来增加20倍的训练时间。
相反,我只找到multi_gpu_model
选项(https://keras.io/utils/#multi_gpu_model),它在几个 GPU上复制模型。这有助于提高2倍的性能,因为它在每个GPU上复制一次模型。
使用fit_generator
等use_multiprocessing=True
选项无法以这种方式提供帮助。
这样的复制/性能提升是否可能?
感谢。