如何知道xgboost是否并行运行?

时间:2019-03-11 02:04:10

标签: python-3.x xgboost

我正在具有28个内核的Linux服务器上训练xgboost回归器。

我通过运行

安装了xgboost
mkdir build 
cd build 
cmake ..
make -j28

xgboost回归变量的构造方式为

from xgboost import XGBRegressor as r
model = r(max_depth = 6,
          n_estimators = 100, 
          n_jobs = 28)

脚本运行时,我用top命令观察到

PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND 
20   0 13.970g 0.011t  25700 R  2800  9.3  93:07.84 python

这是否意味着xgboost正在利用全部28个核心来训练模型?

由于启用了超线程,是否可以用xgboost构建make -j56,然后在n_jobs = 56模型中设置xgboost

0 个答案:

没有答案