在实现变体自动编码器时,我遇到了一个大问题,那就是所有图像最终看起来都像这样:
训练集为CIFAR10,预期结果是设法构建相似的图像。虽然结果似乎正确预测了特征图,但我不明白为什么在50个历元之后结果是这样的。
我使用的过滤器数量越来越少,目前为128个。这种结果是否可以归因于网络体系结构?还是几个纪元?
使用的损失函数是MSE和优化器RMSPROP。
我也尝试过实现这种体系结构:https://github.com/chaitanya100100/VAE-for-Image-Generation/blob/master/src/cifar10_train.py具有相似的结果,甚至还不错。
我很困惑这里可能是什么问题。保存方法是使用matplotlib pyplot保存预测及其真实对应项。
答案 0 :(得分:1)
无益的答案是“自动编码器很难”!您的网络陷入了局部最小值,每次都会预测整个数据集的平均像素值。
我建议:
我确定其他人会添加建议,但是我将从上面开始。