我正在尝试以下代码,发现StandardScaler(or MinMaxScaler)
中的Normalizer
和sklearn
处理数据的方式非常不同。这个问题使管道建设更加困难。我想知道这种设计差异是否是故意的。
from sklearn.preprocessing import StandardScaler, Normalizer, MinMaxScaler
对于Normalizer
,数据是“水平”读取的。
Normalizer(norm = 'max').fit_transform([[ 1., 1., 2., 10],
[ 2., 0., 0., 100],
[ 0., -1., -1., 1000]])
#array([[ 0.1 , 0.1 , 0.2 , 1. ],
# [ 0.02 , 0. , 0. , 1. ],
# [ 0. , -0.001, -0.001, 1. ]])
对于StandardScaler
和MinMaxScaler
,数据是“垂直”读取的。
StandardScaler().fit_transform([[ 1., 1., 2., 10],
[ 2., 0., 0., 100],
[ 0., -1., -1., 1000]])
#array([[ 0. , 1.22474487, 1.33630621, -0.80538727],
# [ 1.22474487, 0. , -0.26726124, -0.60404045],
# [-1.22474487, -1.22474487, -1.06904497, 1.40942772]])
MinMaxScaler().fit_transform([[ 1., 1., 2., 10],
[ 2., 0., 0., 100],
[ 0., -1., -1., 1000]])
#array([[0.5 , 1. , 1. , 0. ],
# [1. , 0.5 , 0.33333333, 0.09090909],
# [0. , 0. , 0. , 1. ]])
答案 0 :(得分:3)
这是预期的行为,因为StandardScaler
和Normalizer
具有不同的用途。 StandardScaler
可“垂直”运行,因为它...
通过去除均值并缩放到单位方差来标准化特征
[...] 通过计算训练集中样本的相关统计信息,对每个特征进行独立居中和缩放。然后存储平均值和标准偏差,以使用变换方法将其用于以后的数据。
Normalizer
是“水平”运行的,因为它...
分别将样本归一化为单位范数。
具有至少一个非零分量的每个样本(即数据矩阵的每一行)都独立于其他样本进行重新缩放,以使其范数(l1或l2)等于1。
请查看scikit-learn文档(上面的链接),以获取更多见解,从而更好地满足您的目的。