如何返回sklearn

时间:2020-07-09 16:35:45

标签: scikit-learn decision-tree feature-selection

我想通过CART和C4.5决策树对我的数据集进行特征选择。以这种方式将决策树应用于数据集,然后提取决策树算法用来创建树的特征。所以我需要返回在创建的树中使用的功能。我在sklearn.tree模块中使用“ DecisionTreeClassifier”。我需要一种方法或函数来给我(返回)在创建的树中使用的功能!将此功能用作主要调制算法中更重要的功能。

1 个答案:

答案 0 :(得分:0)

您可以解决与以下类似的问题:

我假设您有火车(x_train,y_train)和测试(x_test,y_test)套。

from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score
from sklearn.metrics import confusion_matrix
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
from sklearn.metrics import f1_score

tree_clf1 = DecisionTreeClassifier().fit(x_train, y_train)

y_pred = tree_clf1.predict(x_test)

print(confusion_matrix(y_test, y_pred))
print("\n\nAccuracy:{:,.2f}%".format(accuracy_score(y_test, y_pred)*100))
print("Precision:{:,.2f}%".format(precision_score(y_test, y_pred)*100))
print("Recall:{:,.2f}%".format(recall_score(y_test, y_pred)*100))
print("F1-Score:{:,.2f}%".format(f1_score(y_test, y_pred)*100))

feature_importances = DataFrame(tree_clf1.feature_importances_,
                                index = x_train.columns,
                                columns['importance']).sort_values('importance', 
                                                                    ascending=False)

print(feature_importances)

下面是一个示例输出,显示了哪些功能对您的分类很重要。

enter image description here