如何分配多个TPU并调整代码以在所有TPU上运行

时间:2019-03-04 19:47:18

标签: tensorflow tpu

作为研发的一部分,我可以访问多个TPU,但是找不到用于如何将它们一起分配用于培训(无论是节点方式还是代码方式)的文档。文档说ctpu up -zone MY_ZONE_CHOICE,但是此命令仅分配单个TPU。而且,如果要使用多个TPU,应该对代码进行哪些类似的更改?到目前为止,我已经使用此调用tf.contrib.cluster_resolver.TPUClusterResolver()来检查TPU,应该更改什么(如果有的话)以检查是否可以访问多个TPU?

0 个答案:

没有答案