[Caffe]:检查失败:ShapeEquals(proto)形状不匹配(重塑未设置)

时间:2015-06-10 15:56:36

标签: python c++ deep-learning caffe

我有这个错误,我试图在互联网上看一看,但我没有清楚。

我用Caffe成功训练了我的网,准确度达到了82%左右。

现在我正尝试通过此代码尝试使用图像:

python python/classify.py --model_def examples/imagenet/imagenet_deploy.prototxt --pretrained_model caffe_mycaffe_train_iter_10000.caffemodel --images_dim 64,64 data/mycaffe/testingset/cat1/113.png foo --mean_file data/mycaffe/mycaffe_train_mean.binaryproto

是的,我的图片是64x64,

这些是我得到的最后一行:

  

I0610 15:33:44.868100 28657 net.cpp:194] conv3不需要反向计算。   I0610 15:33:44.868110 28657 net.cpp:194] norm2不需要反向计算。   I0610 15:33:44.868120 28657 net.cpp:194] pool2不需要反向计算。   I0610 15:33:44.868130 28657 net.cpp:194] relu2不需要反向计算。   I0610 15:33:44.868142 28657 net.cpp:194] conv2不需要反向计算。   I0610 15:33:44.868152 28657 net.cpp:194] norm1不需要反向计算。   I0610 15:33:44.868162 28657 net.cpp:194] pool1不需要反向计算。   I0610 15:33:44.868173 28657 net.cpp:194] relu1不需要反向计算。   I0610 15:33:44.868182 28657 net.cpp:194] conv1不需要反向计算。   I0610 15:33:44.868192 28657 net.cpp:235]此网络产生输出fc8_pascal   I0610 15:33:44.868214 28657 net.cpp:482]收集学习率和体重衰减。   I0610 15:33:44.868238 28657 net.cpp:247]完成网络初始化。   I0610 15:33:44.868249 28657 net.cpp:248]数据所需内存:3136120   F0610 15:33:45.025965 28657 blob.cpp:458]检查失败:ShapeEquals(proto)形状不匹配(重塑未设置)    *检查故障堆栈跟踪:*   中止(核心倾销)

我试图不设置--mean_file和更多东西,但我的镜头结束了。

这是我的imagenet_deploy.prototxt,我在一些参数中进行了修改以进行调试,但没有任何效果。

name: "MyCaffe"
input: "data"
input_dim: 10
input_dim: 3
input_dim: 64
input_dim: 64
layer {
  name: "conv1"
  type: "Convolution"
  bottom: "data"
  top: "conv1"
  convolution_param {
    num_output: 64
    kernel_size: 11
    stride: 4
  }
}
layer {
  name: "relu1"
  type: "ReLU"
  bottom: "conv1"
  top: "conv1"
}
layer {
  name: "pool1"
  type: "Pooling"
  bottom: "conv1"
  top: "pool1"
  pooling_param {
    pool: MAX
    kernel_size: 3
    stride: 2
  }
}
layer {
  name: "norm1"
  type: "LRN"
  bottom: "pool1"
  top: "norm1"
  lrn_param {
    local_size: 5
    alpha: 0.0001
    beta: 0.75
  }
}
layer {
  name: "conv2"
  type: "Convolution"
  bottom: "norm1"
  top: "conv2"
  convolution_param {
    num_output: 64 
    pad: 2
    kernel_size: 5
    group: 2
  }
}
layer {
  name: "relu2"
  type: "ReLU"
  bottom: "conv2"
  top: "conv2"
}
layer {
  name: "pool2"
  type: "Pooling"
  bottom: "conv2"
  top: "pool2"
  pooling_param {
    pool: MAX
    kernel_size: 3
    stride: 2
  }
}
layer {
  name: "norm2"
  type: "LRN"
  bottom: "pool2"
  top: "norm2"
  lrn_param {
    local_size: 5
    alpha: 0.0001
    beta: 0.75
  }
}
layer {
  name: "conv3"
  type: "Convolution"
  bottom: "norm2"
  top: "conv3"
  convolution_param {
    num_output: 384
    pad: 1
    kernel_size: 3
  }
}
layer {
  name: "relu3"
  type: "ReLU"
  bottom: "conv3"
  top: "conv3"
}
layer {
  name: "conv4"
  type: "Convolution"
  bottom: "conv3"
  top: "conv4"
  convolution_param {
    num_output: 384
    pad: 1
    kernel_size: 3
    group: 2
  }
}
layer {
  name: "relu4"
  type: "ReLU"
  bottom: "conv4"
  top: "conv4"
}
layer {
  name: "conv5"
  type: "Convolution"
  bottom: "conv4"
  top: "conv5"
  convolution_param {
    num_output: 64
    pad: 1
    kernel_size: 3
    group: 2
  }
}
layer {
  name: "relu5"
  type: "ReLU"
  bottom: "conv5"
  top: "conv5"
}
layer {
  name: "pool5"
  type: "Pooling"
  bottom: "conv5"
  top: "pool5"
  pooling_param {
    pool: MAX
    kernel_size: 3
    stride: 2
  }
}
layer {
  name: "fc6"
  type: "InnerProduct"
  bottom: "pool5"
  top: "fc6"
  inner_product_param {
    num_output: 4096
  }
}
layer {
  name: "relu6"
  type: "ReLU"
  bottom: "fc6"
  top: "fc6"
}
layer {
  name: "drop6"
  type: "Dropout"
  bottom: "fc6"
  top: "fc6"
  dropout_param {
    dropout_ratio: 0.5
  }
}
layer {
  name: "fc7"
  type: "InnerProduct"
  bottom: "fc6"
  top: "fc7"
  inner_product_param {
    num_output: 4096
  }
}
layer {
  name: "relu7"
  type: "ReLU"
  bottom: "fc7"
  top: "fc7"
}
layer {
  name: "drop7"
  type: "Dropout"
  bottom: "fc7"
  top: "fc7"
  dropout_param {
    dropout_ratio: 0.5
  }
}
layer {
  name: "fc8_pascal"
  type: "InnerProduct"
  bottom: "fc7"
  top: "fc8_pascal"
  inner_product_param {
    num_output: 3
  }
}

有人能给我一些线索吗? 非常感谢你。

C ++和它们提供的分类箱也是如此:

  

F0610 18:06:14.975601 7906 blob.cpp:455]检查失败:ShapeEquals(proto)形状不匹配(重塑未设置)    *检查故障堆栈跟踪:*      @ 0x7f0e3c50761c google :: LogMessage :: Fail()      @ 0x7f0e3c507568 google :: LogMessage :: SendToLog()      @ 0x7f0e3c506f6a google :: LogMessage :: Flush()      @ 0x7f0e3c509f01 google :: LogMessageFatal :: ~LogMessageFatal()      @ 0x7f0e3c964a80 caffe :: Blob<> :: FromProto()      @ 0x7f0e3c89576e caffe :: Net<> :: CopyTrainedLayersFrom()      @ 0x7f0e3c8a10d2 caffe :: Net<> :: CopyTrainedLayersFrom()      @ 0x406c32分类器::分类器()      @ 0x403d2b主要      @ 0x7f0e3b124ec5(未知)      @ 0x4041ce(未知)   中止(核心倾销)

3 个答案:

答案 0 :(得分:4)

我遇到了同样的错误。在我的情况下,我的最后一层的输出参数是不正确的:切换数据集,我更改了train.prototxt中的类数,但未在test.prototxt(或deploy.prototxt)中这样做。纠正这个错误解决了我的问题。

答案 1 :(得分:2)

让我确认基本步骤是否正确。

a[:]=[]

您是否尝试将第一个参数更改为1,因为您只传递了一个图像。

当顶部或底部斑点的尺寸不正确时,会发生上述错误。除了输入blob之外,没有哪个地方可能出错。

编辑2:

当'{3}}的'reshape'参数设置为false时,会出现

input_dim: 10 input_dim: 3 input_dim: 64 input_dim: 64 错误消息。

我快速搜索了库中的fromproto函数调用,如fromproto function call所示。除了'CopyTrainedLayersFrom'功能之外,没有其他功能实际上将上述参数设置为ShapeEquals(proto) shape mismatch (reshape not set)

这实际上令人困惑。我建议的两种方法是:

  1. 检查caffe源代码是否已从存储库更新。
  2. 尝试运行/ build / tools /中的 caffe.bin 可执行文件的 test 部分。

答案 2 :(得分:1)

在我的例子中,我的求解器文件中第二个卷积层中的内核大小与训练文件中的内核大小不同。更改解算器文件中的大小解决了问题。