动态张量对齐/裁剪

时间:2017-08-10 10:30:38

标签: tensorflow

我在TensorFlow实施了Full-Convolution Network。它使用了encdedder-decoder结构。 在训练时,我总是使用相同的图像大小(224x224,使用随机裁剪),一切都很好。

在干扰阶段,我想一次预测一张图像,因为我想使用全图像(不是弯曲的)。例如,此类图像的大小为[406,256]。这是问题所在。 在编码器 - 解码器架构中,我添加了两个测试器(z = x + y)。训练时,张量匹配的大小。在预测单张图片时,尺寸不匹配(张量大小:[1,47,47,64][1,46,46,64])。我认为这是因为在Conv和Pool层进行了一些舍入。

我的架构应该更改为我想要的任何图像尺寸?我应该更改舍入参数吗?或者添加“裁剪”张量?

链接到架构的实现: https://gist.github.com/melgor/0e43cadf742fe3336148ab64dd63138f (问题发生在第166行)

0 个答案:

没有答案