我在训练(和测试)自动编码器时损失了很多

时间:2019-10-30 09:24:27

标签: python machine-learning keras deep-learning autoencoder

我的损失很高(170+)。我正在制作一个具有3个隐藏层的自动编码器,并使用SGD作为优化器。我已经使用cross_entropy作为损失函数。同样在开始时,我获得的准确度还不错(大约为0.88),但是几乎在每个时代之后都会降低。

这是我的代码:

   encoding_dim=8
   i=Input(shape=(60,))
   encoded=Dense(30,activation='sigmoid')(i)
   encoded1=Dense(15,activation='sigmoid')(encoded)
   encoded2=Dense(8,activation='relu')(encoded1)
   #encoded=Dense(encoding_dim,activation='sigmoid')(encoded2)

   decoded=Dense(15,activation='sigmoid')(encoded2)
   decoded2 =Dense(30,activation='sigmoid')(decoded)
   decoded3 =Dense(60,activation='sigmoid')(decoded2)
   autoencoder = Model(i, decoded3)

   ec = Model(i,encoded)
   encoded_input=Input(shape=(encoding_dim,))
   decoder_layer=autoencoder.layers[-3](encoded_input)
   decoder_layer=autoencoder.layers[-2](decoder_layer)
   decoder_layer=autoencoder.layers[-1](decoder_layer)

   decoder = Model(encoded_input, decoder_layer)
   from keras.optimizers import SGD
   opt = SGD(lr=0.06)
   #model.compile(loss = "categorical_crossentropy", optimizer = opt)
   autoencoder.compile(loss = "categorical_crossentropy", optimizer = opt,metrics=['accuracy'])

   autoencoder.fit(X_Train, X_Train,
            epochs=200,
            batch_size=200,
            shuffle=True,
            validation_data=(X_Test, X_Test))

   #encoded_out= ec.predict(X_Test)
   #decoded_out=decoder.predict(encoded_out)

1 个答案:

答案 0 :(得分:0)

至少在原则上,sigmoid仅应用于最后一个解码层(此处为decoded3)-请参见Building Autoencoders in Keras中的示例。因此,将所有其他激活更改为relu

此外,准确性在自动编码器中没有意义-只需将其从模型编译中删除,然后专注于损失