我使用正则化时Google Colab RAM不足

时间:2019-08-04 18:03:42

标签: python keras google-colaboratory

我一直在使用Google-Colab和所有常用工具(tensorflow,Keras和numpy)运行ML应用程序。我最初使用X = X / 255.0进行正则化没有任何问题,但是我的准确性不高足够我想使用

X=(X-X.mean())/(X.std())

这总是导致RAM崩溃。

即使我将网络简化为两个小的卷积层和一个完全连接的层。 有什么我想念的吗?我的队友没有相同的问题。

model = Sequential()
X= (X-X.mean())/X.std()
model.add(Conv2D(32, (2,2), input_shape=X.shape[1:]))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Conv2D(64, (3,3)))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(3, 3)))
model.add(Dropout(0.5))

model.add(Flatten())

model.add(Dense(512))
model.add(BatchNormalization())
model.add(Activation('relu'))
model.add(Dropout(0.5))

model.add(Dense(10))
model.add(Activation('softmax'))


model.compile(loss='sparse_categorical_crossentropy',
              optimizer='sgd',
              metrics=['accuracy'])

model.fit(X, y, batch_size=20, epochs=30
          , validation_split=0.2)

现在我将图片的尺寸设置为512x512,可能太大了,但我对此表示怀疑

0 个答案:

没有答案