Caffe的Cohn-Kanade数据集配置

时间:2015-11-11 05:42:11

标签: image-processing neural-network convolution caffe conv-neural-network

我正在尝试使用Caffe和Cohn-Kanade database制作一个面部表情识别器。

这是我的列车原型配置:

def configureTrainProtoTxt(lmdb, batch_size):

n = caffe.NetSpec()
n.data, n.label = L.Data(batch_size=batch_size, backend=P.Data.LMDB, source=lmdb,
                         transform_param=dict(scale= 1 / 126.0), ntop=2)

n.conv1 = L.Convolution(n.data, kernel_size=2, pad=1, param=dict(lr_mult=1), num_output=10, weight_filler=dict(type='xavier'))
n.conv1 = L.Convolution(n.data, kernel_size=2, pad=1, param=dict(lr_mult=1), num_output=10, weight_filler=dict(type='xavier'))
n.conv1 = L.Convolution(n.data, kernel_size=5, pad=0, num_output=20, weight_filler=dict(type='xavier'))
n.pool1 = L.Pooling(n.conv1, kernel_size=5, stride=2, pool=P.Pooling.MAX)
n.conv2 = L.Convolution(n.pool1, kernel_size=3, num_output=10, weight_filler=dict(type='xavier')) 
n.pool2 = L.Pooling(n.conv2, kernel_size=2, stride=2, pool=P.Pooling.MAX)
n.ip1 = L.InnerProduct(n.pool2, num_output=100, weight_filler=dict(type='xavier'))
n.relu1 = L.ReLU(n.ip1, in_place=True)
n.ip2 = L.InnerProduct(n.relu1, num_output=2, weight_filler=dict(type='xavier'))
n.loss = L.SoftmaxWithLoss(n.ip2, n.label)

return n.to_proto()

这是我的训练功能,我从lenet示例中得到了它:

def train(solver):

niter = 200
test_interval = 10 

train_loss = zeros(niter)
test_acc = zeros(int(np.ceil(niter / test_interval)))
output = zeros((niter, 32, 2))

for it in range(niter):
    solver.step(1)  

    train_loss[it] = solver.net.blobs['loss'].data

    solver.test_nets[0].forward(start='conv1')
    output[it] = solver.test_nets[0].blobs['ip2'].data[:32]

    if it % test_interval == 0:
        print 'Iteration', it, 'testing...'

        correct = 0

        for test_it in range(100):
            solver.test_nets[0].forward()
            correct += sum(solver.test_nets[0].blobs['ip2'].data.argmax(1) == solver.test_nets[0].blobs['label'].data)

        test_acc[it // test_interval] = correct / 1e4


_, ax1 = subplots()
ax2 = ax1.twinx()
ax1.plot(arange(niter), train_loss)
ax2.plot(test_interval * arange(len(test_acc)), test_acc, 'r')
ax1.set_xlabel('iteration')
ax1.set_ylabel('train loss')
ax2.set_ylabel('test accuracy')
show()

我只使用中性和惊喜的面孔(如果我解决了我的问题,我将使用更多的情绪)。但我的网络只有28%的准确率。我想知道网络配置中存在问题的低精度,我的列车功能中的逻辑或我的训练数据库是否太小?这是我的数据集描述:

训练数据集:56张中性面部图像。 60张惊喜面孔的图像。 测试数据集:15张中性面图像。令人惊讶的15张图像。

所有图像均为32x32且为灰度。 而我的batch_size是32。

拜托,有人可以帮助我知道我的问题是什么吗?

0 个答案:

没有答案