标签: deep-learning
在堆叠式自动编码器中,使用梯度下降和反向传播对单个自动编码器进行贪婪的逐层训练期间,以最大程度地减少重构误差的均方误差。预训练的理想停止标准是什么?我如何在无人监督的情况下为预训练模型调整超参数?在这种情况下可以使用交叉验证吗?