Tensorflow可以通过分布进行反向传播,例如测试版?

时间:2018-03-04 04:33:56

标签: tensorflow backpropagation probability-density beta-distribution

tf.distributions可以访问多个发行版。我的网络应该预测概率密度函数的参数(即我的情况下的策略),然后损失再次依赖于这些。我想特别要求beta分布,因为那是我打算使用的。 E.g:

loss=tf.distributions.Beta(concentration0,concentration1).pdf(some_value)/tf.distributions.Beta(given_concentration0.pdf(some_value), given_concentration1)*advantage
trainstep = tf.train.AdamOptimizer().minimize(loss)

其中,浓度1和浓度0是某个网络的输出,我想要优化(让我们说其他参数是为了这个问题而给出的)。当调用session.run(trainingtep)时,这会反向传播到网络中吗?我无法找到说明其中一个的任何资源。

0 个答案:

没有答案