在用Keras UpSampling2D图层平铺标量后,我建立了一个相对简单的网络,该图像网络由图像和标量输入组成,并串联在一起。然后,这些级联的层将通过几个Convolution2D层,每个层随后是BatchNormalization和Activation。我正在使用tf.name_scope
构造以及设置图层名称,以便能够获得可维护的图形。
但是,当检查the graph of the network in TensorBoard时,立即注意到的是大量几乎相同的Squeeze
节点起源于我的网络层,并指向一个{strong>无输出的Reshape
。有趣的是(而且非常烦人的)那些Squeezes
被归类为“主图”的一部分,而我实际使用的图层被判断为“辅助”。
Squeeze节点的作用是什么?为什么TensorBoard认为它们如此重要以至于使我的网络图不可读?