我最终使用Google合作实验室来学习机器学习。我使用的是带有tensorflow的keras作为后端,我的计算机在每个纪元下使用相同的代码,持续时间为14s。使用加速器gpu进行合作时,每个时期的持续时间为14s。
我在网上发现了显示gpu内存的代码,结果是: GPU免费:11GB CPU内存:12GB
人流显示device(0): GPU
我的代码很简单:
model = Sequential()
#convolution
model.add( Conv2D(6, 2, input_shape=(28, 28, 1) ) )
model.add( Activation('relu') )
#polling
model.add( MaxPool2D(2) )
model.add( Flatten() )
model.add( Dense(10) )
model.add( Activation('softmax'))
model.compile(...)
model.fit(...)
数据集有60000个样本(MNIST)。 有什么办法可以解决这种性能下降的问题?