我想使用 lgb.Dataset 对LightGBM模型进行交叉验证,并使用 early_stopping_rounds 。以下方法在XGBoost的 xgboost.cv 中没有问题。我不想在GridSearchCV中使用Scikit Learn的方法,因为它不支持提前停止或lgb.Dataset。
import lightgbm as lgb
from sklearn.metrics import mean_absolute_error
dftrainLGB = lgb.Dataset(data = dftrain, label = ytrain, feature_name = list(dftrain))
params = {'objective': 'regression'}
cv_results = lgb.cv(
params,
dftrainLGB,
num_boost_round=100,
nfold=3,
metrics='mae',
early_stopping_rounds=10
)
任务是进行回归,但以下代码会引发错误:
的 Supported target types are: ('binary', 'multiclass'). Got 'continuous' instead.
LightGBM支持回归,还是我提供了错误的参数?
答案 0 :(得分:23)
默认情况下,lightgbm.cv中的stratify参数为True
。
根据{{3}}:
分层(bool,optional(默认= True)) - 是否执行 分层抽样。
但分层仅适用于分类问题。因此,要使用回归,您需要将其设为False。
cv_results = lgb.cv(
params,
dftrainLGB,
num_boost_round=100,
nfold=3,
metrics='mae',
early_stopping_rounds=10,
# This is what I added
stratified=False
)
现在正在运作。