Keras的多GPU分布式培训

时间:2018-06-15 02:50:27

标签: tensorflow keras

我正在研究Keras中实现的multi_gpu_model函数。看起来训练是以同步参数服务器的方式完成的,因为从代码看起来我们在所有可用的GPU上创建图形,然后在计算丢失之前合并CPU中每个图形的结果。我的理解是否正确?任何人都可以指点我如何更改multi_gpu_utils.py中的代码,以便以异步方式完成培训?

0 个答案:

没有答案