请帮助我区别一些XGBoost功能(如下)。非常感谢。
-xgb.train
-xgb.fit
他们俩都不训练模型吗?
-num_round = 20 # The number of rounds for boosting -n_estimators – quantity of the trees
它们都不会生成树的数量吗?
-eta – step size -max_depth - depth of the tree
他们俩都防止过度拟合吗?
答案 0 :(得分:0)
ad。 1
xgboost.train
是xgboost方法.train
是sklearn函数ad.2
类似地
num_round
来自xgboost python API n_estimators
用于sklearn ad。 3
Eta
是一个参数,用于控制每次迭代中更新的权重。Max-depth
是每棵树大小的上限。两者都可以起到防止过度拟合的作用,但是您需要对其进行调整,以找到适用于您的数据集的这两者的组合。 请阅读有关xgboost算法的更多信息。这是R中的xgboost的简介,但其中有一个非常不错的简短理论介绍https://www.hackerearth.com/practice/machine-learning/machine-learning-algorithms/beginners-tutorial-on-xgboost-parameter-tuning-r/tutorial/