如何在Google Colab中使用TPU

时间:2018-09-27 06:16:55

标签: tensorflow keras google-colaboratory google-cloud-tpu

Google colab将TPU引入了Runtime Accelerator。我找到了一个示例,如何在Official Tensorflow github中使用TPU。但是该示例不适用于google-colaboratory。它停留在以下行:

tf.contrib.tpu.keras_to_tpu_model(model, strategy=strategy)

当我print available devices合作时,它会为TPU加速器返回[]。有谁知道如何在colab上使用TPU?

enter image description here

1 个答案:

答案 0 :(得分:12)

这是Colab特定的TPU示例: https://colab.research.google.com/github/tensorflow/tpu/blob/master/tools/colab/shakespeare_with_tpu_and_keras.ipynb

关键线是那些连接到TPU本身的线:

# This address identifies the TPU we'll use when configuring TensorFlow.
TPU_WORKER = 'grpc://' + os.environ['COLAB_TPU_ADDR']

...

tpu_model = tf.contrib.tpu.keras_to_tpu_model(
training_model,
strategy=tf.contrib.tpu.TPUDistributionStrategy(
    tf.contrib.cluster_resolver.TPUClusterResolver(TPU_WORKER)))

(与GPU不同,使用TPU需要与TPU工作人员建立显式连接。因此,您需要调整训练和推理定义以观察加速。)