对于我正在使用的数据集,分类变量是有序的,三列的范围从1到5。我将把它送入XGBoost。
我可以只运行此命令并跳过创建虚拟变量的方法:
ser = pd.Series([1, 2, 3], dtype='category')
ser = ser.to_frame()
ser = ser.T
我想从概念上了解一下,由于分类数据是有序的,将其简单地转换为类型类别就足以满足模型要求吗?我尝试创建虚拟变量,但所有值都变成1。
至于现在的代码,它可以运行,但是此命令返回:'numpy.int64'。
type(ser[0][0])
我可以正确处理吗?任何帮助都会很棒!
编辑:更新的代码
Edit2:归一化数值数据值。这种逻辑正确吗?:
r = [1, 2, 3, 100 ,200]
scaler = preprocessing.StandardScaler()
r = preprocessing.scale(r)
r = pd.Series(r)
r = r.to_frame()
r = r.T
Edit3:This is the dataset。
答案 0 :(得分:2)
仅将分类变量设置为dtype="category"
还是行不通的。
您需要使用pd.factorize()
将分类值转换为真实的分类值,其中为每个类别分配了一个数字标签。
假设df
是您的熊猫数据框。然后通常可以使用以下样板代码:
df_numeric = df.select_dtypes(exclude=['object'])
df_obj = df.select_dtypes(include=['object']).copy()
# factorize categoricals columnwise
for c in df_obj:
df_obj[c] = pd.factorize(df_obj[c])[0]
# if you want to one hot encode then add this line:
df_obj = pd.get_dummies(df_obj, prefix_sep='_', drop_first = True)
# merge dataframes back to one dataframe
df_final = pd.concat([df_numeric, df_obj], axis=1)
由于您的分类变量已经被分解(据我所知),您可以跳过分解并尝试一种热编码。
另请参阅this post on stats.stackexchange。
如果要标准化/标准化数字数据(而不是分类数据),请使用以下功能:
from sklearn import preprocessing
def scale_data(data, scale="robust"):
x = data.values
if scale == "minmax":
scaler = preprocessing.MinMaxScaler()
x_scaled = scaler.fit_transform(x)
elif scale == "standard":
scaler = preprocessing.StandardScaler()
x_scaled = scaler.fit_transform(x)
elif scale == "quantile":
scaler = preprocessing.QuantileTransformer()
x_scaled = scaler.fit_transform(x)
elif scale == "robust":
scaler = preprocessing.RobustScaler()
x_scaled = scaler.fit_transform(x)
data = pd.DataFrame(x_scaled, columns = data.columns)
return data
scaled_df = scale_data(df_numeric, "robust")
将所有内容放在一起for your dataset:
from sklearn import preprocessing
df = pd.read_excel("default of credit card clients.xls", skiprows=1)
y = df['default payment next month'] #target variable
del df['default payment next month']
c = [2,3,4] # index of categorical data columns
r = list(range(0,24))
r = [x for x in r if x not in c] # get list of all other columns
df_cat = df.iloc[:, [2,3,4]].copy()
df_con = df.iloc[:, r].copy()
# factorize categorical data
for c in df_cat:
df_cat[c] = pd.factorize(df_cat[c])[0]
# scale continuous data
scaler = preprocessing.MinMaxScaler()
df_scaled = scaler.fit_transform(df_con)
df_scaled = pd.DataFrame(df_scaled, columns=df_con.columns)
df_final = pd.concat([df_cat, df_scaled], axis=1)
#reorder columns back to original order
cols = df.columns
df_final = df_final[cols]
要进一步改善代码,请在归一化之前进行训练/测试拆分,对训练数据进行fit_transform()
,对测试数据进行transform()
。否则您将有数据泄漏。