TF超薄层数

时间:2017-05-28 10:04:42

标签: tensorflow neural-network tf-slim

下面的代码会代表一层还是两层?我很困惑,因为在神经网络中也不应该有输入层吗?

input_layer = slim.fully_connected(input, 6000, activation_fn=tf.nn.relu)
output = slim.fully_connected(input_layer, num_output)

那是否包含隐藏图层?我只是想让网络可视化。提前谢谢!

2 个答案:

答案 0 :(得分:1)

enter image description here

你有一个带有一个隐藏层的神经网络。在您的代码中,http://127.0.0.1:8000/dashboard/ 对应于上图中的“输入”图层。 input是图片称为“隐藏”的内容。 input_layer是图片称为“输出”的内容。

请记住,神经网络的“输入层”不是传统的完全连接层,因为它只是没有激活的原始数据。这有点用词不当。上图中输入层中的神经元与隐藏层或输出层中的神经元不同。

答案 1 :(得分:0)

来自tensorflow-slim

  

此外,TF-Slim的slim.stack运算符允许调用者使用不同的参数重复应用相同的操作来创建堆栈或层塔。 slim.stack还为每个创建的操作创建一个新的tf.variable_scope。例如,创建多层感知器(MLP)的简单方法:

# Verbose way:
x = slim.fully_connected(x, 32, scope='fc/fc_1')
x = slim.fully_connected(x, 64, scope='fc/fc_2')
x = slim.fully_connected(x, 128, scope='fc/fc_3')

# Equivalent, TF-Slim way using slim.stack:
slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc')

所以这里提到的网络是一个[32, 64,128]网络 - 一个隐藏大小为64的图层。