标签: python neural-network deep-learning pytorch autoencoder
已将Staked Auto Encoder应用于具有25K行和18列且均为浮点值的数据集。 SAE用于通过编码和解码进行特征提取。
当我在没有特征缩放的情况下训练模型时,即使经过200个历元,损失仍约为50K。但是,应用缩放后,从第一个纪元开始损失约为3。
在将SAE用于特征提取时,建议应用特征缩放
这会影响解码过程中的准确性吗?
答案 0 :(得分:0)
还值得注意的是,经过1个缩放周期后,损耗要小得多,这应该是用于计算损耗的较小值的结果。