我想知道我是否可以在TensorFlow中简单地应用dropout到卷积。它将如何应用?卷积遮罩的权重是否在输入上“滑动”时随机设置为零?
答案 0 :(得分:7)
您可以在任意输入张量上应用dropout。这个输入的计算方式并不重要;输入的每个元素将简单地保留(和缩放,见下文)或设置为零。
来自https://www.tensorflow.org/api_docs/python/tf/nn/dropout:
概率
keep_prob
,输出按1 / keep_prob
放大的输入元素,否则输出0
。缩放是为了使预期的总和不变。默认情况下,每个元素都是独立保存或删除的。
例如:
conv = tf.nn.conv2d(...)
drop = tf.nn.dropout(conv, keep_prob=0.5)