为什么在本地CPU上培训CNN模型所需的时间少于托管选项?

时间:2019-07-07 10:18:59

标签: python tensorflow keras google-cloud-platform

我对深度学习是完全陌生的,我一直在关注一些教程,这些教程主要使用托管的Jupyter笔记本(Azure和Colaboratory)。我正处于开始在自己的神经网络上进行实验的阶段。但是,我对应该在哪里训练我的keras模型感到困惑。为了做出决定,我在几个不同的地方运行了以下型号,总的来说,我的i5 6500 CPU名列第二,这令人难以置信。更令人困惑的是,在8个虚拟CPU上运行Google Cloud Compute比在我的CPU上运行慢。我尚未尝试使用GTX1060 GPU;但是,可以合理地假设它的性能将比我的CPU还要好。 为什么我会得到这些结果?人们通常在哪里训练他们的ML模型?我的结果如下。

from keras.datasets import mnist
from keras.preprocessing.image import load_img, array_to_img
from keras.utils.np_utils import to_categorical
from keras.models import Sequential
from keras.layers import Dense

image_height, image_width = 28, 28
(x_train, y_train), (x_test, y_test) = mnist.load_data()

x_train = x_train.reshape(60000, image_height * image_width)
x_test = x_test.reshape(10000, image_height * image_width)

x_train = x_train.astype('float32')
x_test = x_test.astype('float32')

x_train /= 255.0
x_test /= 255.0

y_train = to_categorical(y_train, 10)
y_test = to_categorical(y_test, 10)

model = Sequential()
model.add(Dense(512, activation='relu', input_shape=(784,)))
model.add(Dense(512, activation='relu'))
model.add(Dense(10, activation='softmax'))

model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

history = model.fit(x_train, y_train, epochs=2, validation_data=(x_test, y_test))

我在以下位置尝试了上述代码段。以下是每个时代的时间。

  • 我的i5 6500 CPU: 20秒
  • 带CPU的标准笔记本: 27秒
  • 带GPU的协作笔记本: 8秒(预期)
  • 带TPU的协作笔记本: 26秒
  • 具有CPU的Azure笔记本电脑: 60秒
  • Google Cloud Compute Jupyterlab:4个CPU: 36s

enter image description here enter image description here

  • Google Cloud Compute Jupyterlab:8个CPU: 40s

enter image description here enter image description here

不幸的是,运行带有GPU的Google Cloud Compute要求我升级我的免费帐户,所以我没办法尝试。

0 个答案:

没有答案