Caffe中的预测 - 异常:输入blob参数与净输入不匹配

时间:2015-03-18 14:32:38

标签: python deep-learning caffe

我使用Caffe使用非常简单的CNN结构对非图像数据进行分类。我在使用尺寸为n x 1 x 156 x 12的HDF5数据上训练我的网络没有任何问题。但是,我在分类新数据时遇到了困难。

如何在没有任何预处理的情况下进行简单的正向传递?我的数据已经标准化并且具有正确的Caffe尺寸(它已经用于训练网络)。以下是我的代码和CNN结构。

编辑:我已将问题隔离到功能' _Net_forward'在pycaffe.py中发现问题出现,因为self.input dict是空的。谁能解释为什么会这样?该集合应该等于来自新测试数据的集合:

if set(kwargs.keys()) != set(self.inputs):
            raise Exception('Input blob arguments do not match net inputs.')

我的代码发生了一些变化,因为我现在使用IO方法将数据转换为数据(见下文)。通过这种方式,我用正确的数据填充了kwargs变量。

即使很小的提示也会非常感激!

    import numpy as np
    import matplotlib
    import matplotlib.pyplot as plt

    # Make sure that caffe is on the python path:
    caffe_root = ''  # this file is expected to be run from {caffe_root}
    import sys
    sys.path.insert(0, caffe_root + 'python')

    import caffe

    import os
    import subprocess
    import h5py
    import shutil
    import tempfile

    import sklearn
    import sklearn.datasets
    import sklearn.linear_model
    import skimage.io



    def LoadFromHDF5(dataset='test_reduced.h5', path='Bjarke/hdf5_classification/data/'):

        f   = h5py.File(path + dataset, 'r')
        dat = f['data'][:]
        f.close()   

        return dat;

    def runModelPython():
        model_file = 'Bjarke/hdf5_classification/conv_v2_simple.prototxt'
        pretrained = 'Bjarke/hdf5_classification/data/train_iter_10000.caffemodel'
        test_data = LoadFromHDF5()

        net = caffe.Net(model_file, pretrained)
        caffe.set_mode_cpu()
        caffe.set_phase_test()  

        user = test_data[0,:,:,:] 
        datum = caffe.io.array_to_datum(user.astype(np.uint8))
        user_dat = caffe.io.datum_to_array(datum)
        user_dat = user_dat.astype(np.uint8)
        out = net.forward_all(data=np.asarray([user_dat]))

if __name__ == '__main__':
    runModelPython()

CNN Prototext

name: "CDR-CNN"
layers {
  name: "data"
  type: HDF5_DATA
  top: "data"
  top: "label"
  hdf5_data_param {
    source: "Bjarke/hdf5_classification/data/train.txt"
    batch_size: 10
  }
  include: { phase: TRAIN }
}
layers {
  name: "data"
  type: HDF5_DATA
  top: "data"
  top: "label"
  hdf5_data_param {
    source: "Bjarke/hdf5_classification/data/test.txt"
    batch_size: 10
  }
  include: { phase: TEST }
}

layers {
  name: "feature_conv"
  type: CONVOLUTION
  bottom: "data"
  top: "feature_conv"
  blobs_lr: 1
  blobs_lr: 2
  convolution_param {
    num_output: 10
    kernel_w: 12
    kernel_h: 1
    stride_w: 1
    stride_h: 1
    weight_filler {
      type: "gaussian"
      std: 0.01
    }
    bias_filler {
      type: "constant"
    }
  }
}
layers {
  name: "conv1"
  type: CONVOLUTION
  bottom: "feature_conv"
  top: "conv1"
  blobs_lr: 1
  blobs_lr: 2
  convolution_param {
    num_output: 14
    kernel_w: 1
    kernel_h: 4
    stride_w: 1
    stride_h: 1
    weight_filler {
      type: "gaussian"
      std: 0.01
    }
    bias_filler {
      type: "constant"
    }
  }
}
layers {
  name: "pool1"
  type: POOLING
  bottom: "conv1"
  top: "pool1"
  pooling_param {
    pool: MAX
    kernel_w: 1
    kernel_h: 3
    stride_w: 1
    stride_h: 3
  }
}
layers {
  name: "conv2"
  type: CONVOLUTION
  bottom: "pool1"
  top: "conv2"
  blobs_lr: 1
  blobs_lr: 2
  convolution_param {
    num_output: 120
    kernel_w: 1
    kernel_h: 5
    stride_w: 1
    stride_h: 1
    weight_filler {
      type: "gaussian"
      std: 0.01
    }
    bias_filler {
      type: "constant"
    }
  }
}
layers {
  name: "fc1"
  type: INNER_PRODUCT
  bottom: "conv2"
  top: "fc1"
  blobs_lr: 1
  blobs_lr: 2
  weight_decay: 1
  weight_decay: 0
  inner_product_param {
    num_output: 84
    weight_filler {
      type: "gaussian"
      std: 0.01
    }
    bias_filler {
      type: "constant"
      value: 0
    }
  }
}
layers {
  name: "accuracy"
  type: ACCURACY
  bottom: "fc1"
  bottom: "label"
  top: "accuracy"
  include: { phase: TEST }
}
layers {
  name: "loss"
  type: SOFTMAX_LOSS
  bottom: "fc1"
  bottom: "label"
  top: "loss"
}

4 个答案:

答案 0 :(得分:8)

以下是the answer from Evan Shelhamer I got on the Caffe Google Groups

  

self._inputs确实用于定义的手动或“部署”输入   通过原型文本中的输入字段。运行带有数据层的网络   通过pycaffe,只需在没有参数的情况下调用net.forward()。没必要   改变你的火车或测试网的定义。

     

请参阅Python LeNet example的代码单元格[10]。

事实上,我认为Instant Recognition with Caffe tutorial,单元格6:

更清晰
# Feed in the image (with some preprocessing) and classify with a forward pass.
net.blobs['data'].data[...] = transformer.preprocess('data', caffe.io.load_image(caffe_root + 'examples/images/cat.jpg'))
out = net.forward()
print("Predicted class is #{}.".format(out['prob'].argmax()))

换句话说,要使用pycaffe生成预测输出及其概率,一旦训练了模型,就必须首先使用输入提供数据层,然后使用net.forward()执行正向传递

或者,正如其他答案中所指出的,您可以使用类似于您用来定义训练网络的部署原型,但删除输入和输出层,并在开头添加以下内容(显然可根据需要进行调整)到你的输入维度):

name: "your_net"
input: "data"
input_dim: 1
input_dim: 1
input_dim: 1
input_dim: 250

这就是他们在CIFAR10 tutorial中使用的内容。

(pycaffe确实应该更好地记录......)

答案 1 :(得分:2)

由于我自己的实验经验,使用{PHASE}子句在一个文件中指定训练和测试网并不是一个好主意。当我使用这样的网络文件时,我遇到了许多奇怪的错误,但是当我使用旧版本的网络文件时,它们分别包含两个文件,进行训练和测试,它起作用了。但是我在2014年11月使用了caffe版本,也许那里有一些bug或兼容的问题。

那么,当模型用于预测时,是否应该有一个指定网络结构的部署文件?如果你看看ImageNet,你应该在那里找到imagenet_deploy.prototxt。尽管部署文件类似于训练/测试文件,但我听说由于某些填充程序而有所不同。我不知道问题是否存在,但欢迎任何讨论,如果存在,我需要学习新的caffe架构

答案 2 :(得分:1)

Even small hints would be greatly appreciated!

我被困了太多帮助,对不起。可能想跳到最后。

net.inputs是一个@property函数,据说可以生成输入图层的名称。

@property
def _Net_inputs(self):
    return [list(self.blobs.keys())[i] for i in self._inputs]

list(self.blobs.keys())的地方

['data', 'feature_conv', 'conv1', 'pool1', 'conv2', 'fc1', 'accuracy', 'loss']

由于inputs必须与kwargs.keys() = ['data']匹配,我们可以得出结论net._inputs应该是[0]。不知。

由于_inputs中的任何其他地方都未使用pycaffe.py,因此我会查看_caffe.cpp。在第222行附近说

.add_property("_inputs", p::make_function(&Net<Dtype>::input_blob_indices,
    bp::return_value_policy<bp::copy_const_reference>()))

因此_inputsinput_blob_indices,因此您的网络应该[0]是有意义的。

input_blob_indices反过来只是一个在net_input_blob_indices_

中返回include/caffe/net.hpp的函数
inline const vector<int>& input_blob_indices() const { return net_input_blob_indices_; }

...仅在src/caffe/net.cpp中使用,但我找不到它被定义或分配到任何地方。

我尝试使用type: Datatype: MemoryData,但这没有任何区别。工作是什么

input: "data"
input_dim: 1
input_dim: 3
input_dim: 227
input_dim: 227

...而不是一层。在这种情况下,net._inputs = [0]net.inputs = ['data'](实际上net._inputscaffe._caffe.IntVec objectlist(net._inputs) = [0])。

TLDR :它开始看起来很像一个错误所以我提交了它:https://github.com/BVLC/caffe/issues/2246

P.S。看起来你正在将ndarray转换为datum然后又转回来。这有用吗?

答案 3 :(得分:1)

我有完全相同的问题。这就是修复它的原因。

首先,使用与训练相同的prototext文件,删除两个数据层。

然后将该块添加为上面的标记

name: "Name_of_your_net"
input: "data"
input_dim: 64 
input_dim: 1
input_dim: 28
input_dim: 28

我的input_dim用于mnist,将它们更改为你的暗淡。

一切正常。