ValueError:使用输入形状[?,1,60,60,128]从“ max_pooling3d_3 / MaxPool3D”(op:“ MaxPool3D”)的1中减去2导致的负尺寸大小

时间:2020-06-18 09:22:10

标签: python image-processing keras deep-learning image-segmentation

我正在构建用于3D图像分割的keras UNET模型。

图像形状240, 240, 150

输入形状为240, 240, 150, 4, 335 >>训练数据

输出形状应为240, 240, 150, 335 >>训练标签

我正在使用Conv3D,MaxPooling3D,Conv3DTranspose和连接图层来构建模型

我在进行向上采样的模型构建过程中遇到此错误

ValueError: Negative dimension size caused by subtracting 2 from 1 for 'max_pooling3d_3/MaxPool3D' (op: 'MaxPool3D') with input shapes: [?,1,60,60,128].

我搜索了一些解决方案,发现了padding='same'k.set_image_data_format('channels_last')

有了这个,我在上采样后进行混色时遇到了一个新的错误

ValueError: A `Concatenate` layer requires inputs with matching shapes except for the concat axis. Got inputs shapes: [(None, 30, 30, 18, 256), (None, 30, 30, 19, 256)]

我目前在这两个错误之间循环,找不到解决确切问题的确切方法

这是我建立模型的代码

def build_unet_model(input_shape):
    inputs = Input(input_shape)

    conv1 = create_shared_convolution(inputs, 32, config.KERNEL_SIZE)
    block1 = down_convolution(conv1, config.POOL_SIZE)

    conv2 = create_shared_convolution(block1, 64, config.KERNEL_SIZE)
    block2 = down_convolution(conv2, config.POOL_SIZE)

    conv3 = create_shared_convolution(block2, 128, config.KERNEL_SIZE)
    block3 = down_convolution(conv3, config.POOL_SIZE)

    conv4 = create_shared_convolution(block3, 256, config.KERNEL_SIZE)
    block4 = down_convolution(conv4, config.POOL_SIZE)

    conv5 = create_shared_convolution(block4, 512, config.KERNEL_SIZE)  # mid_con
    up1 = concatenate_layers(create_up_convolution(conv5, 256, config.STRIDE_SIZE), conv4)

    conv6 = create_shared_convolution(up1, 256, config.KERNEL_SIZE)
    up2 = concatenate_layers(create_up_convolution(conv6, 128, config.STRIDE_SIZE), conv3)

    conv7 = create_shared_convolution(up2, 128, config.KERNEL_SIZE)
    up3 = concatenate_layers(create_up_convolution(conv7, 64, config.STRIDE_SIZE), conv2)

    conv8 = create_shared_convolution(up3, 64, config.KERNEL_SIZE)
    up4 = concatenate_layers(create_up_convolution(conv8, 32, config.STRIDE_SIZE), conv1)

    conv9 = create_shared_convolution(up4, 32, config.KERNEL_SIZE)
    outputs = create_output_layer(conv9, 4, (1, 1, 1))

    model = Model(inputs=[inputs], outputs=[outputs])
    print(model.summary())
    return model.compile(optimizer=AdaBound(lr=1e-5, final_lr=1), loss=utils.ce_dl_loss, metrics=['accuracy'])

这是模型构建中使用的5个功能

def create_shared_convolution(input_layer, number_of_nets, kernel_size,
                              activation='relu', padding='same',
                              kernel_initializer=initializers.random_normal(stddev=0.01)):
    conv = Conv3D(number_of_nets, kernel_size, activation=activation, padding=padding,
                  kernel_initializer=kernel_initializer)(input_layer)

    conv = Conv3D(number_of_nets, kernel_size, activation=activation, padding=padding,
                  kernel_initializer=kernel_initializer)(conv)
    return conv

def down_convolution(input_layer, pool_size):
    return MaxPooling3D(pool_size=pool_size)(input_layer)


def create_up_convolution(input_layer, number_of_nets, stride_size, padding='same',
                          kernel_initializer=initializers.random_normal(stddev=0.01)):
    return Conv3DTranspose(number_of_nets, stride_size, strides=stride_size, padding=padding,
                           kernel_initializer=kernel_initializer)(input_layer)

def concatenate_layers(layer1, layer2):
    return merge.concatenate([layer1, layer2])


def create_output_layer(input_layer, number_of_nets, kernel_size, activation='relu',
                        kernel_initializer=initializers.random_normal(stddev=0.01)):
    conv = Conv3D(number_of_nets, kernel_size, activation=activation,
                  kernel_initializer=kernel_initializer)(input_layer)

    return Activation('softmax')(conv)

1 个答案:

答案 0 :(得分:0)

以下是对这两个错误的一些解释。

第一个是由于您的要素地图在您的网络中太小。我没有您的网络体系结构的详细信息,但是如果您对输入(形状为240、240、150的形状)应用了很多maxpooling层,则最终可能只能在一个维度上使用一个值(可能类似于( N,N,1))。在此之上添加其他最大池化是不可能的,因为您在维度上没有足够的值来执行它。这就是为什么它会引起负尺寸误差。

第二个可能是由于maxpooling层造成的。当您应用第一个最大池化时,没有任何问题:输出形状为(120,120,75),因此对其进行上采样将获得(240,240,150)。但是下一个最大池化(应用于(120,120,75))将产生形状为(60,60,37)的输出,因为最后一个尺寸是奇数。并对其进行升采样将得到(120,120,74)。因此,不匹配。一种解决方案是在尺寸为奇数时添加ZeroPadding层,然后再进行连接。