scikit功能重要性选择经验

时间:2012-10-19 08:28:52

标签: python classification scikit-learn

Scikit-learn有一种使用极端随机树对特征(分类)进行排名的机制。

forest = ExtraTreesClassifier(n_estimators=250,
                          compute_importances=True,
                          random_state=0)

如果此方法正在执行“单变量”或“多变量”功能排名,我有一个问题。单变量情况是将各个特征相互比较的地方。我会在此澄清一些澄清。我应该尝试其他任何参数吗?这种排名方法的任何经验和陷阱也值得赞赏。 此排名的输出识别特征编号(5,20,7。我想检查特征编号是否真的对应于特征矩阵中的行。即,特征编号5对应于特征矩阵中的第六行。 (从0开始)。

1 个答案:

答案 0 :(得分:3)

我不是专家,但这不是单变量的。事实上,总功能重要性是根据每棵树的特征重要性计算的(取我认为的平均值)。

对于每棵树,计算重要性from the impurity of the split

我使用这种方法,它似乎给出了良好的结果,从我的观点来看比单变量方法更好。但除了对数据集的了解外,我不知道任何测试结果的技术。

要正确订购该功能,您应该遵循this example并稍微修改它以使用pandas.DataFrame及其正确的列名:

import numpy as np

from sklearn.ensemble import ExtraTreesClassifier

X = pandas.DataFrame(...)
Y = pandas.Series(...)

# Build a forest and compute the feature importances
forest = ExtraTreesClassifier(n_estimators=250,
                              random_state=0)

forest.fit(X, y)

feature_importance = forest.feature_importances_
feature_importance = 100.0 * (feature_importance / feature_importance.max())
sorted_idx = np.argsort(feature_importance)[::-1]
print "Feature importance:"
i=1
for f,w in zip(X.columns[sorted_idx], feature_importance[sorted_idx]):
    print "%d) %s : %d" % (i, f, w)
    i+=1
pos = np.arange(sorted_idx.shape[0]) + .5
plt.subplot(1, 2, 2)
nb_to_display = 30
plt.barh(pos[:nb_to_display], feature_importance[sorted_idx][:nb_to_display], align='center')
plt.yticks(pos[:nb_to_display], X.columns[sorted_idx][:nb_to_display])
plt.xlabel('Relative Importance')
plt.title('Variable Importance')
plt.show()