mlxtend StackingRegressor如何使用多个cpu?

时间:2018-11-22 16:46:32

标签: machine-learning xgboost lightgbm catboost mlxtend

我想使用mlxtend StackingRegressor集成XGBoost,LGBM和Catboost。但是我不确定在此方法中将使用多少cpu。

例如:

在XGboost中:

import xgboost as xgb
xgb_pars = {'nthread': -1}
xgb1=XGBRegressor(**xgb_pars)

那我知道我将用尽该算法中的所有cpu内核

但是如果我用mlxtend StackingRegressor尝试怎么办?

我猜这种方法将使用我为每种算法安排的cpu。

示例: XGBoost:2 LGBM:2 CatBoost:2元回归器:1

所以最终我使用了7个内核。

1 个答案:

答案 0 :(得分:0)

不,代码似乎可以一次又一次地适合模型,请参见here。因此,首先,您将使用2个核心来训练XGB,完成后将使用它-LGBM的2个核心,依此类推。

顺便说一句,感谢您分享mlxtend,我不知道它。似乎有很多有用的工具,我必须发展自己,才能重新发明轮子:)唯一不幸的是,似乎缺少文档,但是有内联的文档和非常好的示例