我正在使用以下数据集进行Kaggle竞争:https://www.kaggle.com/c/home-data-for-ml-course/download/train.csv
根据该理论,通过增加随机森林模型中估计量的数量,平均绝对误差将仅下降到一定数量(最佳点),并且进一步增加将导致过度拟合。通过绘制估算器的数量和平均绝对误差,我们应该得到这个红色的图,因为最低点表示估算器的最佳数量。
我尝试通过以下代码找到最佳数量的估计量,但数据图显示MAE一直在下降。我该怎么办?
train_data = pd.read_csv('train.csv')
y = train_data['SalePrice']
#for simplicity dropping all columns with missing values and non-numerical values
X = train_data.drop('SalePrice', axis=1).dropna(axis=1).select_dtypes(['number'])
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)
mae_list = []
for n_estimators in range(10, 800, 10):
rf_model = RandomForestRegressor(n_estimators=n_estimators, random_state=0, n_jobs=8)
rf_model.fit(X_train, y_train)
preds = rf_model.predict(X_test)
mae = mean_absolute_error(y_test, preds)
mae_list.append({'n_est': n_estimators, 'mae': mae})
#plotting the results
plt.plot([item['n_est'] for item in mae_list], [item['mae'] for item in mae_list])
答案 0 :(得分:3)
您不一定在做错事。
更仔细地看您显示的理论曲线,您会注意到水平轴没有丝毫表示实际发生的树木/迭代次数的最小值。这是这种理论预测的一个相当普遍的特征-他们告诉您期望是什么,但是关于您应该确切地(甚至粗略地)期待什么却没有。
记住这一点,我可以从第二个图得出的唯一结论是,在您尝试过的约800棵树的特定范围内,您实际上仍处于预期最小值的“左侧”。
同样,也没有理论上的预测,在达到最小值之前,您应该添加多少棵树(800或8,000或...)。
为了在讨论中加入一些经验依据:在我自己的第一场Kaggle比赛中,我们一直在增加树木,直到达到约 24,000 的数量,然后我们的验证错误才开始出现分歧(我们使用的是GBM而不是RF,但基本原理是相同的。