Google Colab TPU比GPU需要更多的时间

时间:2018-11-27 19:27:13

标签: tensorflow keras google-colaboratory google-cloud-tpu mlp

下面是我正在使用的代码。我注释掉了将我的模型转换为TPU模型的那一行。使用GPU处理相同数量的数据,每个时间需要花费7秒,而使用TPU则需要90秒。

    Inp = tf.keras.Input(name='input', shape=(input_dim,), dtype=tf.float32)
    x = tf.keras.layers.Dense(900, kernel_initializer='uniform',  activation='relu', input_dim=input_dim, name = 'Dense_01')(Inp)
    x = tf.keras.layers.Dropout(0.3, name = 'Dropout_02')(x)
    output = tf.keras.layers.Dense(stop_criteria, activation='softmax',name = 'Dense_02')(x)

    model = tf.keras.Model(inputs=[Inp], outputs=[output])
    opt = tf.train.AdamOptimizer(.001)
    model.compile(optimizer=opt, loss='categorical_crossentropy', metrics=['acc'])

    '''tpu_model = tf.contrib.tpu.keras_to_tpu_model(model,
                                                  strategy=tf.contrib.tpu.TPUDistributionStrategy(
                                                      tf.contrib.cluster_resolver.TPUClusterResolver(TPU_ADDRESS)))'''
    model.fit(X_tra, y_tra, epochs=5, batch_size=batch_size, shuffle=False,
              validation_split=0.1, verbose=2)

这里是notebook

的链接

1 个答案:

答案 0 :(得分:0)

您是否像下面的示例那样尝试过tpu_model.fit_generator方法? 另一部分看起来很好。 同样,一个问题可能是使用Adam Optimizer。有东西。关于它,但是我忘了链接在哪里。尝试使用另一个优化器和下面的代码,如果使用其他优化器,您肯定知道它一定是正确的。使用Adam Optimizer。

tf.keras.backend.clear_session()

training_model = lstm_model(seq_len=100, batch_size=128, stateful=False)

tpu_model = tf.contrib.tpu.keras_to_tpu_model(
    training_model,
    strategy=tf.contrib.tpu.TPUDistributionStrategy(
        tf.contrib.cluster_resolver.TPUClusterResolver(TPU_WORKER)))

tpu_model.fit_generator(
    training_generator(seq_len=100, batch_size=1024),
    steps_per_epoch=100,
    epochs=10,
)
tpu_model.save_weights('/tmp/bard.h5', overwrite=True)