我不使用Keras。我想在Google Colab上使用TPU。问题:
tf.session
是否可以自动使用TPU?tf.contrib.tpu.TPUDistributionStrategy
,tf.contrib.tpu.rewrite
,tf.contrib.cluster_resolver.TPUClusterResolver
在TPU计算中起什么作用?它们都是必要的吗? 答案 0 :(得分:2)
您正在运行哪个Tensorflow版本?当前,Google Colab上的TPU固件仅支持1.14(确切的版本可能是我错了,但肯定是1.x),但是,如果您使用的是TF2.0,则GCP上的nightly-2.x支持TPU。 ,所以也许您可以尝试一下!
请注意,在2.0中,您将希望摆脱任何“会话”,因为这已不再是一回事。在此处查看TPUStrategy文档以获取更多信息:https://www.tensorflow.org/guide/distributed_training#tpustrategy