我想配置一个深度自动编码器,以减少输入数据的维数,如paper所述。图层大小应为2000-500-250-125-2-125-250-500-2000,我希望能够拉出中间层的激活(如论文,我想用这些值作为坐标)。输入数据由二进制向量组成,每个向量长度为2000。 现在我正在寻找一个工作示例,我可以将其作为起点。我已经尝试DeepLearning4J但是无法构建令人满意的自动编码器。我会感谢任何建议。
答案 0 :(得分:0)
您应该查看deeplearning.net处的一些教程。他们有一个Stacked Denoising Autoencoder代码示例。所有教程都是用Theano编写的,这是一个科学计算库,可以为您生成GPU代码。
这是在LFW训练的200x200x200 SdA的第3层上学习权重的可视化示例。您只需修改上面链接的SdA教程代码即可获得相同的结果。