我正试图在slurm管理的研究集群上运行dask。
使用传统的sbatch
脚本启动作业正在工作。
但是当我做的时候:
from dask_jobqueue import SLURMCluster
cluster = SLURMCluster(cores=12, memory='24 GB', processes=1, interface='ib0')
cluster.scale(1)
最后一步返回:
找不到记录器“ dask_jobqueue.core”的处理程序
运行squeue
时,没有任何作业。
All the tests正在通过。 使用LocalCluster()在登录节点上确实有效。
这些是python 2.7的软件包版本:
dask 0.18.2 py_0 conda-forge
dask-core 0.18.2 py_0 conda-forge
dask-jobqueue 0.3.0 py_0 conda-forge
distributed 1.22.0 py27_0 conda-forge
有什么线索可以找吗?
答案 0 :(得分:0)
我建议使用SLURM调查作业的状态。