假设我们已经训练了神经网络......
我的问题是,如果我们将以前的输出应用为现在的输入,那么相同的神经网络会产生数据吗?
我正在研究MNIST数据集,并想知道如果我们使用反向传播算法从输出端训练我们的网络(使用最终输出作为该方面的输入本身)会发生什么。
这可能是一个微不足道的但仍然需要社区的帮助
我的想法是它可以恢复数据(或原始数据集的近似值)...... 是否可以证明其合理性?
答案 0 :(得分:1)
据我所知。它不可能。特别是因为activation functions(大多数)是非线性的。
神经网络是一个黑盒子(见this answer)。其次,请f(x) = x^2
。如果您想从n
计算f(n)
,那么有两种可能的解决方案;对于神经网络也是如此,可以存在多种解决方案,因此不可能反转所有这些解决方案。但主要的一点是:仅仅因为你知道函数的逆,并不意味着你知道神经网络的逆。这是一个黑盒子!
然而,您可以看到神经元对某个输入给出的响应。例如,这是'方面'神经网络寻找识别面部:
Google Deepdream也放大了它寻找识别某些物体的方面。看看吧!