在Tensorflow中使用TPU时,是否有合适的解决方法将检查点保存在本地驱动器中?

时间:2018-10-26 23:53:09

标签: python tensorflow google-colaboratory google-cloud-tpu

此问题的后续处理:

How to save a Tensorflow Checkpoint file from Google Colaboratory in when using TPU mode?

使用Tensorflow TPU时保存检查点的官方方式是使用Google Cloud Service。

如果正在为不希望使用GCS的用户提供解决方法,我正在努力。也许对每个变量执行.eval(),保存变量。然后将每个变量的save变量设置为'init'值。

我预见的一个主要问题是为优化器保存和加载参数。

对于Keras,权重似乎确实已从TPU保存到本地

https://colab.research.google.com/github/tensorflow/tpu/blob/master/tools/colab/shakespeare_with_tpu_and_keras.ipynb

  

INFO:tensorflow:将TPU权重复制到CPU

所以我想也有一个不使用keras的通用解决方法。

1 个答案:

答案 0 :(得分:1)

看看THIS CODE from Keras

如果我理解正确,则不能直接从TPU中保存权重,而是将权重同步到CPU,然后保存到colab存储中。

编辑

另请参阅:this answer