如何使用自动微分功能来计算向量相对于向量的导数

时间:2019-05-08 17:34:59

标签: tensorflow auto differentiation

我正在使用张量流。问题是:

我有一个向量x =(x_0,x_1)和一个图: y = [x_0 + x_1,x_0-x_1]。

我想使用张量流的自动微分功能来计算dy / dx的导数。我该怎么办?

我在张量流教程中进行搜索,它仅提供了一个示例来计算以下问题的梯度:

y = x_0 ^ 2 + x_1 ^ 2。

没有示例显示如何计算向量对向量的导数。

1 个答案:

答案 0 :(得分:0)

tf.gradients的{​​{3}}说:

tf.gradients(
    ys,
    xs,
    ...
)
ys: A Tensor or list of tensors to be differentiated.
xs: A Tensor or list of tensors to be used for differentiation.

类似于您要执行的操作

x = tf.get_variable("x", 
                    [2, 5],
                    initializer=tf.truncated_normal_initializer(stddev=0.02))
x_0 = x[0]
x_1 = x[1]

y_0 = x_0 + x_1
y_1 = x_0 - 2*x_1

y = tf.concat([[y_0], [y_1]], axis=0)

grad = tf.gradients(ys=y, xs=[x_0, x_1], unconnected_gradients='zero')

with tf.Session() as s:
  s.run(tf.initialize_all_variables())

  x0, x1, x, y, grad = s.run([x_0, x_1, x, y, grad])
  print 'x0=\n', x0, '\nx1=\n', x1
  print 'x=\n', x
  print 'y=\n', y
  print 'grad=\n', grad

结果:

x0=
[-0.02764007  0.01410516  0.02441488  0.02322472  0.03130293] 
x1=
[-0.00922771  0.0021055  -0.00121181  0.00638576  0.01953333]
x=
[[-0.02764007  0.01410516  0.02441488  0.02322472  0.03130293]
 [-0.00922771  0.0021055  -0.00121181  0.00638576  0.01953333]]
y=
[[-0.03686778  0.01621066  0.02320307  0.02961049  0.05083626]
 [-0.00918464  0.00989417  0.0268385   0.0104532  -0.00776374]]
grad=
  [array([ 2.,  2.,  2.,  2.,  2.], dtype=float32), 
   array([-1., -1., -1., -1., -1.], dtype=float32)]