鉴于我们可以在LightGBM中使用自定义指标,并在训练期间使用参数“ feval”来调用它。 对于给定的指标,我们可以在参数dict中定义它,例如metric:(l1,l2) 我的问题是,如何同时调用多个自定义指标?我无法使用feval =(my_metric1,my_metric2)来获取结果
答案 0 :(得分:1)
params = {}
params['learning_rate'] = 0.003
params['boosting_type'] = 'goss'
params['objective'] = 'multiclassova'
params['metric'] = ['multi_error', 'multi_logloss']
params['sub_feature'] = 0.8
params['num_leaves'] = 15
params['min_data'] = 600
params['tree_learner'] = 'voting'
params['bagging_freq'] = 3
params['num_class'] = 3
params['max_depth'] = -1
params['max_bin'] = 512
params['verbose'] = -1
params['is_unbalance'] = True
evals_result = {}
aa = lgb.train(params,
d_train,
valid_sets=[d_train, d_dev],
evals_result=evals_result,
num_boost_round=4500,
feature_name=f_names,
verbose_eval=10,
categorical_feature = f_names,
learning_rates=lambda iter: (1 / (1 + decay_rate * iter)) * params['learning_rate'])
让我们讨论一下我在这里分享的代码。 d_train 是我的训练集。 d_dev 是我的验证集(我有不同的测试集。) evals_result 将每次迭代的 multi_error和multi_logloss 记录为列表。 verbose_eval = 10 将使LightGBM每10次迭代打印训练集和验证集的 multi_error和multi_logloss 。如果要以图形形式绘制 multi_error和multi_logloss :
lgb.plot_metric(evals_result, metric='multi_error')
plt.show()
lgb.plot_metric(evals_result, metric='multi_logloss')
plt.show()
您可以从LightGBM文档中找到其他有用的功能。如果找不到所需的内容,请转到XGBoost文档,这是一个简单的技巧。如果有什么遗漏,请随时询问更多。