卷积自动编码器中的训练损失和验证损失不会减少很多

时间:2016-10-19 03:20:59

标签: machine-learning deep-learning keras conv-neural-network

为什么卷积自动编码器中的训练损失和验证损失没有减少。培训数据的维度为10496x1024,而CAE则使用32x32中的keras尺寸图片修补程序进行了培训。我已经尝试l2regularization,但没有多大帮助。我是20世纪的火车。可能是其他替代方案?

输出:

  

Epoch 1/20 10496/10496 [========] - 52s - 损失:0.4029 - val_loss:   0.3821

     

Epoch 2/20 10496/10496 [========] - 52s - 损失:0.3825 - val_loss:   0.3784

     

大纪元3/20 10496/10496 [=======] - 52s - 损失:0.3802 - val_loss:   0.3772

     

Epoch 4/20 10496/10496 [=======] - 51s - 损失:0.3789 - val_loss:   0.3757

     

大纪元5/20 10496/10496 [=======] - 52s - 损失:0.3778 - val_loss:   0.3752

     

Epoch 6/20 10496/10496 [=======] - 51s - 损失:0.3770 - val_loss:   0.3743

     

大纪元7/20 10496/10496 [=======] - 54s - 损失:0.3763 - val_loss:   0.3744

     

Epoch 8/20 10496/10496 [=======] - 51s - 损失:0.3758 - val_loss:   0.3735

     

大纪元9/20 10496/10496 [=======] - 51s - 损失:0.3754 - val_loss:   0.3731

     

Epoch 10/20 10496/10496 [=======] - 51s - 损失:0.3748 - val_loss:   0.3739

     

Epoch 11/20 10496/10496 [=======] - 51s - 损失:0.3745 - val_loss:   0.3729

     

Epoch 12/20 10496/10496 [=======] - 54s - 损失:0.3741 - val_loss:   0.3723

     

Epoch 13/20 10496/10496 [=======] - 51s - 损失:0.3736 - val_loss:   0.3718

     

Epoch 14/20 10496/10496 [=======] - 52s - 损失:0.3733 - val_loss:   0.3716

     

Epoch 15/20 10496/10496 [=======] - 52s - 损失:0.3731 - val_loss:   0.3717

     

Epoch 16/20 10496/10496 [=======] - 51s - 损失:0.3728 - val_loss:   0.3712

     

大纪元17/20 10496/10496 [=======] - 49s - 损失:0.3725 - val_loss:   0.3709

     

Epoch 18/20 10496/10496 [=======] - 36s - 损失:0.3723 - val_loss:   0.3710

     

大纪元19/20 10496/10496 [=======] - 37s - 损失:0.3721 - val_loss:   0.3708

     

Epoch 20/20 10496/10496 ========] - 37s - 损失:0.3720 - val_loss:   0.3704

1 个答案:

答案 0 :(得分:0)

您的网络仍然在学习,并且在第20纪元并没有减速。如果您有足够的数据,您可以尝试更高的学习速度和更早的停止方法。 这种方法也可以应用正则化方法和k折交叉验证。