如何将.csv训练数据提供给mxnet中的卷积神经网络?

时间:2016-07-17 15:04:24

标签: python csv deep-learning mxnet

我最近在Windows 10和Python 3.5上安装了支持GPU的mxnet(python包)。我经历了几个例子,他们似乎工作得很好。

我习惯于学习样式机器学习软件包和非常新的Python深度学习软件包,例如Mxnet,虽然我已经在R中使用过Mxnet。我很难理解如何提供.csv培训数据到模型。

我想向一个简单的CNN提供一些图片。图像为28x28像素,并以.csv格式存储为平顶阵列。我有两个.csv文件,一个用于培训,另一个用于测试。每个.csv文件都具有以下结构:

label, pixel1, pixel2, ..., pixel784
0,...
1,...

训练集/测试集中总共有10个标签和大约1000/300个图像。

我使用以下代码加载数据并训练模型:

import mxnet as mx
import pandas as pd
import numpy as np
import os

path = "C://users//me//data"
os.chdir(path)

df_train = pd.read_csv("train_28.csv")
df_test = pd.read_csv("test_28.csv")

keys = ['pixel.'+str(i) for i in range(1,785)]

X_train = df_train[keys].get_values().T
X_train = X_train.reshape((1200,28,28,1))
y_train = df_train['label'].get_values().reshape((1200,1))
#y_train = y_train.reshape((28,28,1,1200))



data = mx.symbol.Variable('data')

# First conv layer
conv1 = mx.symbol.Convolution(data=data, kernel=(5,5), num_filter=20)
tanh1 = mx.symbol.Activation(data=conv1, act_type="tanh")
pool1 = mx.symbol.Pooling(data=tanh1, pool_type="max",
                              kernel=(2,2), stride=(2,2))

# Second conv layer
conv2 = mx.symbol.Convolution(data=pool1, kernel=(5,5), num_filter=50)
tanh2 = mx.symbol.Activation(data=conv2, act_type="tanh")
pool2 = mx.symbol.Pooling(data=tanh2, pool_type="max",
                              kernel=(2,2), stride=(2,2))

# First fully connected
flatten = mx.symbol.Flatten(data=pool2)
fc1 = mx.symbol.FullyConnected(data=flatten, num_hidden=500)
tanh3 = mx.symbol.Activation(data=fc1, act_type="tanh")
# second fullc
fc2 = mx.symbol.FullyConnected(data=tanh3, num_hidden=10)
# loss
lenet = mx.symbol.SoftmaxOutput(data=fc2, name='softmax')                              

device = mx.gpu()                              

model = mx.model.FeedForward.create(lenet,
                                    X = X_train,
                                    y = y_train,
                                    ctx = device,
                                    num_epoch = 30)

我正在使用这种方法,类似于我在R中使用mxnet的方法,(顺便说一句,它在R上工作得很好,但是我不能在R上使用GPU,所以我需要使用Python来获得更好的性能...... )但是我收到以下错误:

[16:54:11] D:\chhong\mxnet\dmlc-core\include\dmlc/logging.h:235: [16:54:11] d:\chhong\mxnet\src\operator\./convolution-inl.h:347: Check failed: ksize_x <= dshape[3] && ksize_y <= dshape[2] kernel size exceed input
Traceback (most recent call last):
  File "C:\Users\Me\Desktop\esempio_lenet.py", line 57, in <module>
    num_epoch = 30)
  File "C:\Users\Me\Anaconda3\lib\site-packages\mxnet-0.7.0-py3.5.egg\mxnet\model.py", line 901, in create
    eval_batch_end_callback=eval_batch_end_callback)
  File "C:\Users\Me\Anaconda3\lib\site-packages\mxnet-0.7.0-py3.5.egg\mxnet\model.py", line 745, in fit
    self._init_params(dict(data.provide_data+data.provide_label))
  File "C:\Users\Me\Anaconda3\lib\site-packages\mxnet-0.7.0-py3.5.egg\mxnet\model.py", line 485, in _init_params
    arg_shapes, _, aux_shapes = self.symbol.infer_shape(**input_shapes)
  File "C:\Users\Me\Anaconda3\lib\site-packages\mxnet-0.7.0-py3.5.egg\mxnet\symbol.py", line 453, in infer_shape
    return self._infer_shape_impl(False, *args, **kwargs)
  File "C:\Users\Me\Anaconda3\lib\site-packages\mxnet-0.7.0-py3.5.egg\mxnet\symbol.py", line 513, in _infer_shape_impl
    ctypes.byref(complete)))
  File "C:\Users\Me\Anaconda3\lib\site-packages\mxnet-0.7.0-py3.5.egg\mxnet\base.py", line 77, in check_call
    raise MXNetError(py_str(_LIB.MXGetLastError()))
mxnet.base.MXNetError: InferShape Error in convolution0: [16:54:11] d:\chhong\mxnet\src\operator\./convolution-inl.h:347: Check failed: ksize_x <= dshape[3] && ksize_y <= dshape[2] kernel size exceed input

我无法弄清楚我做错了什么。可以请有人告诉我这是什么错误,并提供一套明确的说明如何加载.csv文件与上面相同的结构,并培训mxnet模型?我看了一下文档但是我自己无法弄清楚如何正确加载.csv文件......

我要求加载此类.csv文件的过程的原因是我主要使用该格式处理数据,因此能够针对具有这些.csv的文件夹运行脚本对我来说非常有价值。文件,并准备好用于训练深度卷积神经网络。

如果您需要它们来重现我编写的示例代码,可以使用一组train和test .csv文件here

谢谢

1 个答案:

答案 0 :(得分:3)

问题出在这一行:

X_train = X_train.reshape((1200,28,28,1))

在mxnet中,第二个维度是要素贴图,而第三个和第四个维度是宽度和高度,因此它应该是:

X_train = X_train.reshape((1200,1,28,28))