当您在中间层重新组织输出时,tensorflow如何处理反向传播

时间:2017-10-04 21:18:02

标签: tensorflow backpropagation

我有一个神经网络,其隐藏层输出数字A,然后我使用了一个使用A生成向量的函数。问题是TF在进行反向传播时可以正确处理吗?我确实在TF中尝试过它可以输出一些东西,但我仍然不确定bp是否正常工作。

BTW,我用来从数字生成向量的函数是(V是前一层的输出,d是我输入的值,G是常量):

def Generator(d, V):
    dmn = []
    for k in range(G):
        d1 = tf.exp(-(((V*d-(-1+k*0.2))\**2)/(2*0.2\**2)))
        dmn.append(d1)
    return dmn 

1 个答案:

答案 0 :(得分:1)

是的,张量流可以通过张量流图中表示的几乎任何可微变换反向传播,并且当反向传播不可能发生时,您将得到可见的错误。