我有一个神经网络,其隐藏层输出数字A,然后我使用了一个使用A生成向量的函数。问题是TF在进行反向传播时可以正确处理吗?我确实在TF中尝试过它可以输出一些东西,但我仍然不确定bp是否正常工作。
BTW,我用来从数字生成向量的函数是(V
是前一层的输出,d
是我输入的值,G
是常量):
def Generator(d, V):
dmn = []
for k in range(G):
d1 = tf.exp(-(((V*d-(-1+k*0.2))\**2)/(2*0.2\**2)))
dmn.append(d1)
return dmn
答案 0 :(得分:1)
是的,张量流可以通过张量流图中表示的几乎任何可微变换反向传播,并且当反向传播不可能发生时,您将得到可见的错误。