如何使TensorFlow SimpleRNN静态以在Colab TPU上进行训练?

时间:2020-08-25 17:11:28

标签: google-colaboratory tensorflow2.0 recurrent-neural-network tpu google-cloud-tpu

从TPU常见问题中阅读以下内容:https://cloud.google.com/tpu/docs/faq

我可以在Compute Engine上训练递归神经网络(RNN)吗?

在某些配置中,tf.static_rnn()和tf.dynamic_rnn()与当前的TPU执行引擎兼容。 更一般而言,TPU支持tf.while_loop()和TensorArray,用于实现tf.dynamic_rnn()。 TPU不支持诸如CuDNN之类的专用工具箱,因为它们包含GPU特定的代码。 在TPU上使用tf.while_loop()确实需要指定循环迭代次数的上限,以便TPU执行引擎可以静态确定内存使用情况。

如何使我的SimpleRNN静态或有效以在Colab TPU上运行?

Colab TPU代码

import tensorflow as tf
import os
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Dense, SimpleRNN

resolver = tf.distribute.cluster_resolver.TPUClusterResolver(tpu='grpc://' + os.environ['COLAB_TPU_ADDR'])
tf.config.experimental_connect_to_cluster(resolver)
tf.tpu.experimental.initialize_tpu_system(resolver)
print("All devices: ", tf.config.list_logical_devices('TPU'))

strategy = tf.distribute.TPUStrategy(resolver)

with strategy.scope():  
  model = Sequential()
  model.add(SimpleRNN(units=32, input_shape=(1,step), activation="relu"))
  model.add(Dense(16, activation="relu"))
  model.add(Dense(1))
  model.compile(loss='mean_squared_error', optimizer='rmsprop')

model.fit(X,y, epochs=50, batch_size=16, verbose=0)

0 个答案:

没有答案