梯度下降的代码在哪里?

时间:2017-11-08 11:18:49

标签: python tensorflow machine-learning artificial-intelligence gradient-descent

使用TensorFlow运行一些实验,想要查看一些函数的实现,只是为了确切地了解一些事情是如何完成的,从tf.train.GradientDescentOptimizer的简单情况开始。从github下载了完整源代码的zip,在源代码树上运行了一些搜索,得到:

C:\tensorflow-master\tensorflow\python\training\gradient_descent.py

class GradientDescentOptimizer(optimizer.Optimizer):

  def _apply_dense(self, grad, var):
    return training_ops.apply_gradient_descent(

好的,所以假设实际代码在apply_gradient_descent中,搜索到的......不存在。整个源树中只出现三次,所有这些都是使用,而不是定义。

training_ops怎么样?确实存在一个带有暗示名称的源文件:

C:\tensorflow-master\tensorflow\python\training\training_ops.py

from tensorflow.python.training import gen_training_ops
# go/tf-wildcard-import
# pylint: disable=wildcard-import
from tensorflow.python.training.gen_training_ops import *
# pylint: enable=wildcard-import

...以上是该文件的全部内容。 HMM。

我找到了这个文件:

C:\tensorflow-master\tensorflow\python\BUILD

tf_gen_op_wrapper_private_py(
    name = "training_ops_gen",
    out = "training/gen_training_ops.py",
)

似乎证实了这样的和其他这样的文件是在构建过程中生成的目标代码 - 但它们是从哪里生成的源代码?

所以这就是我放弃并寻求帮助的地方。任何熟悉TensorFlow代码库的人都能指出相关源代码的位置吗?

1 个答案:

答案 0 :(得分:8)

实现进一步转向本机c ++代码。此处的ApplyGradientDescent GPU实施(core/kernels/training_ops_gpu.cu.cc):

template <typename T>
struct ApplyGradientDescent<GPUDevice, T> {
  void operator()(const GPUDevice& d, typename TTypes<T>::Flat var,
                  typename TTypes<T>::ConstScalar lr,
                  typename TTypes<T>::ConstFlat grad) {
    Eigen::array<typename TTypes<T>::Tensor::Index, 1> bcast;
    bcast[0] = grad.dimension(0);
    Eigen::Sizes<1> single;
    var.device(d) -= lr.reshape(single).broadcast(bcast) * grad;
  }
};

CPU实施是herecore/kernels/training_ops.cc):

template <typename T>
struct ApplyGradientDescent<CPUDevice, T> {
  void operator()(const CPUDevice& d, typename TTypes<T>::Flat var,
                  typename TTypes<T>::ConstScalar lr,
                  typename TTypes<T>::ConstFlat grad) {
    var.device(d) -= grad * lr();
  }
};