为什么standardscaler和normalizer需要不同的数据输入?

时间:2019-01-09 17:35:56

标签: python-3.x scikit-learn normalization scaling

我正在尝试以下代码,发现StandardScaler(or MinMaxScaler)中的Normalizersklearn处理数据的方式非常不同。这个问题使管道建设更加困难。我想知道这种设计差异是否是故意的。

from sklearn.preprocessing import StandardScaler, Normalizer, MinMaxScaler

对于Normalizer,数据是“水平”读取的。

Normalizer(norm = 'max').fit_transform([[ 1., 1.,  2., 10],
                                        [ 2.,  0.,  0., 100],
                                        [ 0.,  -1., -1., 1000]])
#array([[ 0.1  ,  0.1  ,  0.2  ,  1.   ],
#       [ 0.02 ,  0.   ,  0.   ,  1.   ],
#       [ 0.   , -0.001, -0.001,  1.   ]])

对于StandardScalerMinMaxScaler,数据是“垂直”读取的。

StandardScaler().fit_transform([[ 1., 1.,  2., 10],
                                [ 2.,  0.,  0., 100],
                                [ 0.,  -1., -1., 1000]])
#array([[ 0.        ,  1.22474487,  1.33630621, -0.80538727],
#       [ 1.22474487,  0.        , -0.26726124, -0.60404045],
#       [-1.22474487, -1.22474487, -1.06904497,  1.40942772]])

MinMaxScaler().fit_transform([[ 1., 1.,  2., 10],
                              [ 2.,  0.,  0., 100],
                              [ 0.,  -1., -1., 1000]])
#array([[0.5       , 1.        , 1.        , 0.        ],
#       [1.        , 0.5       , 0.33333333, 0.09090909],
#       [0.        , 0.        , 0.        , 1.        ]])

1 个答案:

答案 0 :(得分:3)

这是预期的行为,因为StandardScalerNormalizer具有不同的用途。 StandardScaler可“垂直”运行,因为它...

  

通过去除均值并缩放到单位方差来标准化特征

     

[...]   通过计算训练集中样本的相关统计信息,对每个特征进行独立居中和缩放。然后存储平均值和标准偏差,以使用变换方法将其用于以后的数据。

Normalizer是“水平”运行的,因为它...

  

分别将样本归一化为单位范数。

     

具有至少一个非零分量的每个样本(即数据矩阵的每一行)都独立于其他样本进行重新缩放,以使其范数(l1或l2)等于1。

请查看scikit-learn文档(上面的链接),以获取更多见解,从而更好地满足您的目的。