在预处理和降维之前或之后将X拆分为测试/列车?机器学习

时间:2017-08-11 16:36:09

标签: python machine-learning scikit-learn svm dimensionality-reduction

我一直在完成微软的课程DAT210X - Python数据科学编程。

为机器学习创建SVC模型时,我们鼓励使用test中的train_test_split将数据集X拆分为trainsci-kit learn集,在执行preprocessing之前,例如scalingdimension reduction例如{} PCA/Isomap。我在下面提供了一个代码示例,其中包含了使用这种方式写入给定问题的解决方案的一部分。

但是,在将X分成preprocessPCA/IsoMap并且test更高之前,X上的trainaccuracy似乎要快得多分数。

我的问题是:

1)为什么我们不能切出标签(y)并在拆分测试和训练之前对所有X进行预处理和降维?

2)在所有X(负y)上的预处理和尺寸减小得分高于分割X然后执行预处理和尺寸减小。为什么会这样?

X_train, X_test, y_train, y_test = train_test_split(X, y,test_size=0.30, random_state=7)

step_c = .05
endpt_c = 2 + step_c
startpt_c = .05

step_g = .001
endpt_g = .1 + step_g
startpt_g = .001

bestscore = 0.0
best_i = 0.0
best_j = 0.0

pre_proc = [
        preprocessing.Normalizer(),
        preprocessing.MaxAbsScaler(),
        preprocessing.MinMaxScaler(),
        preprocessing.KernelCenterer(), 
        preprocessing.StandardScaler()
       ]
best_proc = ''
best_score = 0

print('running......')

# pre-processing (scaling etc)
for T in pre_proc: 
    X_train_T = T.fit_transform(X_train) 
    X_test_T =  T.transform(X_test) # only apply transform to X_test!

    # dimensionality reduction
    for k in range(2, 6):
        for l in range(4, 7):
            iso = Isomap(n_neighbors = k, n_components = l)
            X_train_iso = iso.fit_transform(X_train_T)
            X_test_iso = iso.transform(X_test_T)

            # SVC parameter sweeping
            for i in np.arange(startpt_c,endpt_c, step_c):
                # print(i)
                for j in np.arange(startpt_g,endpt_g, step_g):

                    clf = SVC(C=i, gamma=j , kernel='rbf'
                    # max_iter=-1, probability=False, random_state=None,   shrinking=True, tol=0.001, verbose=False)
                )
                    clf.fit(X_train_iso, y_train) 
                    score = clf.score(X_test_iso, y_test)

                    if bestscore < score:
                        bestscore = score
                        best_c = i
                        best_g = j
                        best_proc = T
                        best_n_neighbors = k
                        best_n_components = l

# Print final variables that gave best score:
print('proc: ' + str(T), 'score:' + str(bestscore), 'C: ' + str(i), 'g: ' + str(j), 'n_neigh: ' + str(k), 'n_comp: ' + str(l))enter code here

1 个答案:

答案 0 :(得分:2)

关于

  

1)我们有没有理由不切出标签(y)并执行   在分割之前对所有X进行预处理和降维   出来测试和训练?

原因是您应该在训练数据上训练您的模型,而不使用任何有关测试数据的信息。如果在训练模型之前对整个数据(包括测试数据)应用PCA,那么实际上您使用了测试数据中的一些信息。因此,您无法使用测试数据真正判断模型的行为,因为它不再是看不见的数据。

关于:

  

2)预处理和维度得分较高   减少所有X(减去y)比分割X然后减少   执行预处理和降维。为什么会这样?

这完全合情合理。您使用了测试数据中的一些信息来训练模型,因此测试数据的得分会更高。然而,这个分数并不能真正估计出模型在看不见的数据上的行为。