AutoEncoder的巨大损失无法收敛

时间:2020-11-12 02:58:21

标签: python tensorflow machine-learning keras neural-network

我正在尝试使用自动编码器以减小尺寸。但是,损失巨大,我不确定自己做错了什么。这就是损失的样子:

第33/150集 49/49 [==============================]-0s 10ms / step-损耗:13991174768839351313119576064.0000-val_loss:77714384326348058472072029029056.0000

第34/150集 49/49 [==============================]-1秒10毫秒/步-损耗:13991.17810614213465465486336.0000-val_loss:77714384326348058472067629056.0000

在运行AutoEncoder之前,我已经缩放并标准化了数据。该代码主要是从站点复制并粘贴的,因为我想首先了解它的工作原理。输入具有5950个功能,我想将尺寸减小到200个左右。输入是一维表格数据。

encoding_dim = 200

input_df = Input(shape=(5950,))
encoded = Dense(encoding_dim, activation='relu')(input_df)
decoded = Dense(5950, activation='sigmoid')(encoded)

autoencoder = Model(input_df, decoded)

encoder = Model(input_df, encoded)

autoencoder.compile(optimizer='adam', loss='mean_squared_error')

autoencoder.fit(df, df, epochs=150, batch_size=20, shuffle=True, validation_data=(tx, tx))

我正在使用张量流keras软件包。

0 个答案:

没有答案
相关问题