我了解XGBoost的用法,我知道这是一个业余问题
XGBoost是否可以像LASSO一样用于变量消除和选择目的,还是我们需要先使用LASSO消除变量,然后再使用XGBoost进行预测?
答案 0 :(得分:0)
XGBoost对于存在冗余变量(功能)的预测非常有效。作为基础的梯度提升算法本身就是robust to multi-collinearity。
但是,强烈建议从用于训练任何选择算法(无论是LASSO还是XGBoost)的任何数据集中删除(设计)任何冗余特征。
另外,您可以使用Ensemble learning.
结合这两种方法