标签: machine-learning logistic-regression xgboost
因此,在推导xgboost中的第一棵树时,我们需要知道一阶和二阶梯度p-y和p(1-p)以计算叶子权重和整体树分数。但是,由于我们还没有任何树,因此如何为每个样本获取p?
这是base_score还是先前的?
是否有数学推论证明最佳的这种值是多少?特别是当我们考虑对分类进行回归时。
是否可以为总体的所有样本指定先验概率数组?这不是所有样本的默认值0.5-而是基于某些先验分布吗?
谢谢