标签: tensorflow tpu
作为研发的一部分,我可以访问多个TPU,但是找不到用于如何将它们一起分配用于培训(无论是节点方式还是代码方式)的文档。文档说ctpu up -zone MY_ZONE_CHOICE,但是此命令仅分配单个TPU。而且,如果要使用多个TPU,应该对代码进行哪些类似的更改?到目前为止,我已经使用此调用tf.contrib.cluster_resolver.TPUClusterResolver()来检查TPU,应该更改什么(如果有的话)以检查是否可以访问多个TPU?
ctpu up -zone MY_ZONE_CHOICE
tf.contrib.cluster_resolver.TPUClusterResolver()