我正在构建用于3D图像分割的keras UNET模型。
图像形状240, 240, 150
输入形状为240, 240, 150, 4, 335
>>训练数据
输出形状应为240, 240, 150, 335
>>训练标签
我正在使用Conv3D,MaxPooling3D,Conv3DTranspose和连接图层来构建模型
我在进行向上采样的模型构建过程中遇到此错误
ValueError: Negative dimension size caused by subtracting 2 from 1 for 'max_pooling3d_3/MaxPool3D' (op: 'MaxPool3D') with input shapes: [?,1,60,60,128].
我搜索了一些解决方案,发现了padding='same'
和k.set_image_data_format('channels_last')
层
有了这个,我在上采样后进行混色时遇到了一个新的错误
ValueError: A `Concatenate` layer requires inputs with matching shapes except for the concat axis. Got inputs shapes: [(None, 30, 30, 18, 256), (None, 30, 30, 19, 256)]
我目前在这两个错误之间循环,找不到解决确切问题的确切方法
这是我建立模型的代码
def build_unet_model(input_shape):
inputs = Input(input_shape)
conv1 = create_shared_convolution(inputs, 32, config.KERNEL_SIZE)
block1 = down_convolution(conv1, config.POOL_SIZE)
conv2 = create_shared_convolution(block1, 64, config.KERNEL_SIZE)
block2 = down_convolution(conv2, config.POOL_SIZE)
conv3 = create_shared_convolution(block2, 128, config.KERNEL_SIZE)
block3 = down_convolution(conv3, config.POOL_SIZE)
conv4 = create_shared_convolution(block3, 256, config.KERNEL_SIZE)
block4 = down_convolution(conv4, config.POOL_SIZE)
conv5 = create_shared_convolution(block4, 512, config.KERNEL_SIZE) # mid_con
up1 = concatenate_layers(create_up_convolution(conv5, 256, config.STRIDE_SIZE), conv4)
conv6 = create_shared_convolution(up1, 256, config.KERNEL_SIZE)
up2 = concatenate_layers(create_up_convolution(conv6, 128, config.STRIDE_SIZE), conv3)
conv7 = create_shared_convolution(up2, 128, config.KERNEL_SIZE)
up3 = concatenate_layers(create_up_convolution(conv7, 64, config.STRIDE_SIZE), conv2)
conv8 = create_shared_convolution(up3, 64, config.KERNEL_SIZE)
up4 = concatenate_layers(create_up_convolution(conv8, 32, config.STRIDE_SIZE), conv1)
conv9 = create_shared_convolution(up4, 32, config.KERNEL_SIZE)
outputs = create_output_layer(conv9, 4, (1, 1, 1))
model = Model(inputs=[inputs], outputs=[outputs])
print(model.summary())
return model.compile(optimizer=AdaBound(lr=1e-5, final_lr=1), loss=utils.ce_dl_loss, metrics=['accuracy'])
这是模型构建中使用的5个功能
def create_shared_convolution(input_layer, number_of_nets, kernel_size,
activation='relu', padding='same',
kernel_initializer=initializers.random_normal(stddev=0.01)):
conv = Conv3D(number_of_nets, kernel_size, activation=activation, padding=padding,
kernel_initializer=kernel_initializer)(input_layer)
conv = Conv3D(number_of_nets, kernel_size, activation=activation, padding=padding,
kernel_initializer=kernel_initializer)(conv)
return conv
def down_convolution(input_layer, pool_size):
return MaxPooling3D(pool_size=pool_size)(input_layer)
def create_up_convolution(input_layer, number_of_nets, stride_size, padding='same',
kernel_initializer=initializers.random_normal(stddev=0.01)):
return Conv3DTranspose(number_of_nets, stride_size, strides=stride_size, padding=padding,
kernel_initializer=kernel_initializer)(input_layer)
def concatenate_layers(layer1, layer2):
return merge.concatenate([layer1, layer2])
def create_output_layer(input_layer, number_of_nets, kernel_size, activation='relu',
kernel_initializer=initializers.random_normal(stddev=0.01)):
conv = Conv3D(number_of_nets, kernel_size, activation=activation,
kernel_initializer=kernel_initializer)(input_layer)
return Activation('softmax')(conv)
答案 0 :(得分:0)
以下是对这两个错误的一些解释。
第一个是由于您的要素地图在您的网络中太小。我没有您的网络体系结构的详细信息,但是如果您对输入(形状为240、240、150的形状)应用了很多maxpooling层,则最终可能只能在一个维度上使用一个值(可能类似于( N,N,1))。在此之上添加其他最大池化是不可能的,因为您在维度上没有足够的值来执行它。这就是为什么它会引起负尺寸误差。
第二个可能是由于maxpooling层造成的。当您应用第一个最大池化时,没有任何问题:输出形状为(120,120,75),因此对其进行上采样将获得(240,240,150)。但是下一个最大池化(应用于(120,120,75))将产生形状为(60,60,37)的输出,因为最后一个尺寸是奇数。并对其进行升采样将得到(120,120,74)。因此,不匹配。一种解决方案是在尺寸为奇数时添加ZeroPadding
层,然后再进行连接。