我正在使用XGBoost运行一些实验。 我将迭代次数设置为1000并得到结果 - 合理的..
我试图做一些不同的事情:
我希望运行100次迭代,而不是运行1000次迭代,重复10次(总共1000次迭代)。 在这10步之间我设置: target_learn = target_learn - target_fitted(来自之前的步骤)。
而不是target_fitted = target_fitted + prediction
通过对所有数据集的测试集进行交叉验证,获得Target_fitted预测。
我得到了不同的结果 - 准确性很差。
比我走得更远只有5次迭代完成200次......甚至更糟......
我之所以尝试这样做,是因为我想在迭代期间改变学习矩阵(尝试做一些有点反复的事情)。
任何想法为什么结果都不同......在我看来,每个步骤中的第一次迭代都是不同的,所以我在模型中多次进行迭代,这就是杀戮......
其他参数相同..
或者我可能缺少完整的东西..? THX
答案 0 :(得分:0)
好的,我明白了,有设置:
默认设置:'base_score':0.5
导致此问题...