预处理已转换为数字的分类数据

时间:2017-03-29 16:23:23

标签: machine-learning scikit-learn preprocessor

我对机器学习很新,所以我不知道正确的术语,但是我按照以下方式将两个分类列转换为数字。这些列是我的功能输入的一部分,类似于泰坦尼克数据库中的性别列。 (它们不是我已经创建的目标数据y

                           changed  p_changed  
Date                                       
2010-02-17   0.477182        0          0  
2010-02-18   0.395813        0          0  
2010-02-19   0.252179        1          1  
2010-02-22   0.401321        0          1  
2010-02-23   0.519375        1          1  

现在,我的其余数据X看起来像这样

          Open  High   Low  Close    Volume  Adj Close  log_return  \
Date                                                                   
2010-02-17  2.07  2.07  1.99   2.03  219700.0       2.03   -0.019513   
2010-02-18  2.03  2.03  1.99   2.03  181700.0       2.03    0.000000   
2010-02-19  2.03  2.03  2.00   2.02  116400.0       2.02   -0.004938   
2010-02-22  2.05  2.05  2.02   2.04  188300.0       2.04    0.009852   
2010-02-23  2.05  2.07  2.01   2.05  255400.0       2.05    0.004890   

            close_open  Daily_Change  30_Avg_Vol  20_Avg_Vol  15_Avg_Vol  \
Date                                                                       
2010-02-17        0.00         -0.04    0.909517    0.779299    0.668242   
2010-02-18        0.00          0.00    0.747470    0.635404    0.543015   
2010-02-19        0.00         -0.01    0.508860    0.417706    0.348761   
2010-02-22        0.03         -0.01    0.817274    0.666903    0.562414   
2010-02-23        0.01          0.00    1.078411    0.879007    0.742730 

正如您所看到的,我的其余数据是连续的(包含许多变量),而两个分类列只有两个值(0和1)。

我计划通过这个简单的预处理方法一次性预处理所有这些数据

X_scaled = preprocessing.scale(X)

我想知道这是不是错了?在使用这个简单的预处理之前,我还需要对分类值做些什么吗?

编辑:我试过两种方法;首先,我尝试缩放整个数据,包括转换为1和0的分类数据。

Full_X = OPK_df.iloc[:-5, 0:-5]
Full_X_scaled = preprocessing.scale( Full_X)   # First way, which scales everything in one shot. 

然后我尝试删除最后两列,缩放,然后通过此代码添加删除的列。

X =OPK_df.iloc[:-5, 0:-7]   # Here I'm dropping both -7 while originally the offset was only till -5, which means two extra columns were dropped. 

我创建了另一个数据框,其中包含我删除的那两列

 x2 =OPK_df.iloc[:-5, -7:-5]
 x2 = np.array(x2)   # convert it to an array


 # preprocessing the data without last two columns
   from sklearn import preprocessing
   X_scaled = preprocessing.scale(X)

# Then concact the X_scaled with x2(originally dropped columns)

   X =np.concatenate((X_scaled, x2), axis =1)


    #Creating a classifier

from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=5)
knn2 = KNeighborsClassifier(n_neighbors=5)
knn.fit(X_scaled, y)
knn2.fit(X,y)


knn.score(Full_X_scaled, y)

0.71396522714526078


knn2.score(X, y)

0.71789119461581608

因此,当我确实在标准化过程中放下两列时,得分会更高。

1 个答案:

答案 0 :(得分:1)

到目前为止,你的表现相当不错。 缩放您的分类数据。由于这些似乎是二进制分类,因此将其视为“是”和“否”。扩展这些是什么意思?

更糟糕的是,考虑到你可能有花类型的分类:你已经编码了百日草= 0,玫瑰= 1,兰花= 2,等等。这是什么意义?将这些重新编码为Zinnia = -0.257,Rose = + 0.448等没有任何意义。

缩放输入数据是必要的部分:它将值保持在可比较的范围内(数学影响),使您可以轻松地对损失函数使用单一处理。否则,具有最大值扩展的特征将对训练产生最大影响,直到您的模型权重学习如何正确地折扣大值。

对于您的初步探索,请勿进行任何其他预处理:只需缩放输入数据并开始拟合练习。