如何将连续变量转换为分类变量?

时间:2019-07-15 21:29:47

标签: python python-3.x scikit-learn random-forest

请正确地将我指向这个方向。如何将包含连续变量的列转换为离散变量?我有要转换成某种绝对价值的金融工具的价格。我以为我可以做到以下几点。

labels = df['PRICE'].astype('category').cat.categories.tolist()
replace_map_comp = {'PRICE' : {k: v for k,v in zip(labels,list(range(1,len(labels)+1)))}}
print(replace_map_comp)

但是,当我尝试对部分数据运行RandomForestClassifier时,出现错误。

from sklearn.ensemble import RandomForestClassifier
features = np.array(['INTEREST',
'SPREAD',
'BID',
'ASK',
'DAYS'])
clf = RandomForestClassifier()
clf.fit(df[features], df1['PRICE'])

错误消息显示为:ValueError: Unknown label type: 'continuous'

我很确定这已经很近了,但是这里肯定有事。

代码更新如下:

# copy only numerics to new DF
df1 = df.select_dtypes(include=[np.number])

from sklearn import linear_model
features = np.array(['INTEREST',
'SPREAD',
'BID',
'ASK',
'DAYS'])
reg = linear_model.LinearRegression()
reg.fit(df1[features], df1['PRICE'])

# problems start here...
importances = clf.feature_importances_
sorted_idx = np.argsort(importances)

padding = np.arange(len(features)) + 0.5
plt.barh(padding, importances[sorted_idx], align='center')
plt.yticks(padding, features[sorted_idx])
plt.xlabel("Relative Importance")
plt.title("Variable Importance")
plt.show()

错误:AttributeError:'LinearRegression'对象没有属性'feature_importances _'

以下是概念:

http://blog.yhat.com/tutorials/5-Feature-Engineering.html

仅供参考,我尝试了一次热编码,并且代码转换使列太大,导致出现错误。也许处理此问题的方法是获取一小部分数据。对于25万行,我想也许10万行应该可以代表整个数据集。也许这就是要走的路。只是在这里大声思考。

5 个答案:

答案 0 :(得分:1)

答案 1 :(得分:1)

当您面对解释变量的类并且价格不是类时,分类器非常有用,除非您对总和进行精确分类:

df['CLASS'] = np.where( df.PRICE > 1000, 1, 0) # Classify price above 1000 or less

在使用连续解释变量的情况下,回归方法非常可取。

from sklearn import linear_model
reg = linear_model()
reg.fit(df[features], df['CLASS'])

答案 2 :(得分:0)

Pandas具有cut函数,可用于您要尝试执行的操作:

import pandas as pd
import numpy as np
from scipy.stats import norm
from sklearn.ensemble import RandomForestClassifier
from sklearn.preprocessing import LabelEncoder

label_encoder = LabelEncoder()
n_bins = 5
df = pd.DataFrame(data=norm.rvs(loc=500, scale=50, size=100),
                  columns=['PRICE'])
y = label_encoder.fit_transform(pd.cut(df['PRICE'], n_bins, retbins=True)[0])
rfc = RandomForestClassifier(n_estimators=100, verbose=2)
rfc.fit(df[['PRICE']], y)

这是一个示例。首先要知道有一百种方法可以做到这一点,所以这不一定是“正确”的方法。这只是一种方式。

主要思想:使用Pandas cut函数为连续数据创建存储桶。桶数由您决定。在此示例中,我选择n_bins作为5

拥有垃圾箱后,可以使用sklearn的LabelEncoder()将垃圾箱转换为类。这样,您可以更轻松地引用这些类。这就像您的课程的存储系统,因此您可以跟踪它们。使用label_encoder.classes_查看课程。

完成这些步骤后,y将如下所示:

array([1, 2, 2, 0, 2, 2, 0, 1, 3, 1, 1, 2, 1, 4, 4, 2, 3, 1, 1, 3, 2, 3,
       2, 2, 2, 0, 2, 2, 4, 1, 3, 2, 1, 3, 3, 2, 1, 4, 3, 1, 1, 4, 2, 3,
       3, 2, 1, 1, 3, 4, 3, 3, 3, 2, 1, 2, 3, 1, 3, 1, 2, 0, 1, 1, 2, 4,
       1, 2, 2, 2, 0, 1, 0, 3, 3, 4, 2, 3, 3, 2, 3, 1, 3, 4, 2, 2, 2, 0,
       0, 0, 2, 2, 0, 4, 2, 3, 2, 2, 2, 2])

您现在已经将连续数据转换为类,并且现在可以传递给RandomForestClassifier()

答案 3 :(得分:0)

除了许多其他方法外,实现分箱的简单方法是:按距离或按频率分箱。

import pandas as pd
df = pd.read_csv('Tax_Calculation.csv')
min = df['Direct_Tax'].min()
max = df['Direct_Tax'].max()

假设需要的 bin 数量是:4,因此我们需要 5 个边(边 = number_of_bin + 1)。 edge1 Bin1 edge2 Bin2 edge3 Bin3 edge4 Bin4 edge5

import numpy as np
bins = np.linspace(min,max, 5)

按距离分箱(将值分组为分箱数):

df['bins_dist'] = pd.cut(df['Direct_Tax'], bins=bins, labels=[ExSmall, Small, Medium, Large], include_lowest=True)

按频率分箱(按观测次数分箱):每个分箱将包含几乎相同数量的观测

df['bin_freq'] = pd.qcut(df['Direct_Tax'], q=4, precision=1, labels=[ExSmall, Small, Medium, Large])

答案 4 :(得分:-1)

from sklearn.preprocessing import LabelEncoder
label_encoder = LabelEncoder()
n_bins = 10
dseries, return_bins = pd.qcut(train['price'], n_bins, retbins=True)

n_bins=n_bins+2
return_bins[0]=return_bins[0]*.99
return_bins[-1]=return_bins[-1]*0.99
return_bins_lst=[r for r  in return_bins]
return_bins_lst.insert(0,return_bins[0]*1000)
return_bins_lst.append(return_bins[-1]*1000)
return_bins=np.array(return_bins_lst)
 
train['label']=label_encoder.fit_transform(pd.cut(train['price'], return_bins, 
labels=range(n_bins)))
test['label']=label_encoder.transform(pd.cut(test['price'], return_bins, 
labels=range(n_bins)))

几乎使用了 Jarad 给出的示例,但进行了一些概括,以便您可以在训练/测试数据集之间保持编码一致