决策树 - 最有影响力的参数Python

时间:2018-03-13 07:13:20

标签: python scikit-learn

我在Python中有简单的Decision Tree程序。有没有办法从X中找出(打印)最有影响力的参数(或更多)引起结果? 例如: "预测结果为"是"。最有影响力的参数是X"

项中的[0]值
from sklearn import tree


X=[[100,3],[130,3],[80,2],[90,2],[140,3]]
Y=["yes","no","yes","yes","no"]

clf = tree.DecisionTreeClassifier()

clf = clf.fit(X,Y)

List1=[124,3]

prediction = clf.predict([List1])

print(prediction)

1 个答案:

答案 0 :(得分:1)

feature_importances_属性可以使用。

  

功能重要性。功能越高,功能越重要。特征的重要性计算为该特征带来的标准的(标准化的)总减少量。

http://scikit-learn.org/stable/modules/generated/sklearn.tree.DecisionTreeClassifier.html

print(clf.feature_importances_)
> [1. 0.]

此处第二个特征重要性为零,表示此特征未包含在规则树中。