标签: python tensorflow
我想知道是否可以轻松地在TensorFlow中“分离”图层。使用例如几层的常规前馈网络将要在连续前向传播中使用的向量分别馈送到每一层。
(假设我有一个由许多函数f_i(x_i; theta_i)组成的网络,其中x_i是图层的输入,而theta_i是图层的权重和偏差。我希望能够提供一个列表{x_1,...,x_N}个输入分别进入图层)。
我还想知道在训练/“反向传播”过程中是否存在使用类似方法的好方法,即使用我替代的独立{x_1,..,x_N}来解耦网络并计算损失函数相对于各个层的梯度独立。