我在TensorFlow实施了Full-Convolution Network。它使用了encdedder-decoder结构。
在训练时,我总是使用相同的图像大小(224x224
,使用随机裁剪),一切都很好。
在干扰阶段,我想一次预测一张图像,因为我想使用全图像(不是弯曲的)。例如,此类图像的大小为[406,256]
。这是问题所在。
在编码器 - 解码器架构中,我添加了两个测试器(z = x + y)。训练时,张量匹配的大小。在预测单张图片时,尺寸不匹配(张量大小:[1,47,47,64]
与[1,46,46,64]
)。我认为这是因为在Conv和Pool层进行了一些舍入。
我的架构应该更改为我想要的任何图像尺寸?我应该更改舍入参数吗?或者添加“裁剪”张量?
链接到架构的实现: https://gist.github.com/melgor/0e43cadf742fe3336148ab64dd63138f (问题发生在第166行)