我试图了解xgboost用于选择功能的标准。假设我正在分类,并且已经在第一轮中选择了初始预测值。
我相信xgboost会选择最大化的初始树(根)特征,然后在相同的基础上继续向该树添加特征。当算法达到树的最大深度时,它会停止,然后选择一个新的初始变量以以此为基础最大化增益来开始新树。
这种理解正确吗?如果是这样,有人可以向我指出什么是外行的解释吗?我不是数学文盲,但是我也无法阅读高级的符号表示法(例如xgboost dox的后半部分讨论“ H”和“ G”。)。我想我对变量选择基础的答案可能在该部分中,但是我一直在努力理解其内容。一些通过口头弥合差距的资料将不胜感激。