标签: tensorflow keras
我正在研究Keras中实现的multi_gpu_model函数。看起来训练是以同步参数服务器的方式完成的,因为从代码看起来我们在所有可用的GPU上创建图形,然后在计算丢失之前合并CPU中每个图形的结果。我的理解是否正确?任何人都可以指点我如何更改multi_gpu_utils.py中的代码,以便以异步方式完成培训?