面向初学者的XGBoost:XGBoost中的3对功能之间有什么区别?

时间:2019-08-30 06:04:43

标签: xgboost

请帮助我区别一些XGBoost功能(如下)。非常感谢。

  1. 两者之间有什么区别
  

-xgb.train

     

-xgb.fit

他们俩都不训练模型吗?

  1. 两者之间有什么区别
-num_round = 20 # The number of rounds for boosting
-n_estimators – quantity of the trees

它们都不会生成树的数量吗?

  1. 两者之间的区别是什么
-eta – step size
-max_depth - depth of the tree

他们俩都防止过度拟合吗?

1 个答案:

答案 0 :(得分:0)

ad。 1

  • xgboost.train是xgboost方法
  • .train是sklearn函数

ad.2

类似地

  • num_round来自xgboost python API
  • n_estimators用于sklearn

ad。 3

  • Eta是一个参数,用于控制每次迭代中更新的权重。
  • Max-depth是每棵树大小的上限。两者都可以起到防止过度拟合的作用,但是您需要对其进行调整,以找到适用于您的数据集的这两者的组合。

请阅读有关xgboost算法的更多信息。这是R中的xgboost的简介,但其中有一个非常不错的简短理论介绍https://www.hackerearth.com/practice/machine-learning/machine-learning-algorithms/beginners-tutorial-on-xgboost-parameter-tuning-r/tutorial/