使用线性助推器来预测分类结果是否有意义? 我认为它可以像多项逻辑回归一样工作。
R中的一个例子如下,
y <- c(0, 1, 2, 0, 1, 2) # target variable with numeric encoding
x1 <- c(1, 3, 5, 3, 5, 7)
x2 <- rnorm(n = 6, sd = 1) + x1
df <- data.matrix(data.frame(x1, x2, y))
xgb <- xgboost(data = df[, c("x1", "x2")], label = df[, "y"],
params = list(booster = "gblinear", objective = "multi:softmax",
num_class = 3),
save_period = NULL, nrounds = 1)
xgb.importance(model = xgb)
我没有得到错误,但重要性有6个特征而不是预期的2.对于2个输入变量,是否有6个重要性的解释?或者这没有任何意义,只有gbtree
是明智的吗?
感谢