有什么区别: DecisionTreeRegressor(splitter ='random')和DecisionTreeRegressor(splitter ='best')
如果两者似乎都抛出随机预测,我不明白为什么两个实现都使用参数random_state
以下是一个例子:
import pandas as pd
from sklearn.tree import DecisionTreeRegressor
url = 'https://raw.githubusercontent.com/justmarkham/DAT8/master/data/vehicles_train.csv'
train = pd.read_csv(url)
train['vtype'] = train.vtype.map({'car':0, 'truck':1})
feature_cols = ['year', 'miles', 'doors', 'vtype']
X = train[feature_cols]
y = train.price
treereg = DecisionTreeRegressor(splitter='best')
for i in range(1, 10):
treereg.fit(X, y)
print treereg.predict([1994, 10000, 2, 1])
谢谢!
答案 0 :(得分:1)
我无法肯定地回答这个问题,但这是我怀疑发生的事情:
即使对于splitter="best"
,决策树中使用的算法也会以随机顺序探索功能(如您所见in the source)。如果未定义max_features
,应该探索所有功能,从而无论随机状态如何都会找到相同的最佳分割,只要有唯一最佳分裂。
我怀疑,对于您提供的数据,在某些时候,根据指定的标准,有两种可能的分割同样好,因此算法会选择它首先看到的分割。