在Slurm群集上运行TensorFlow?

时间:2016-01-16 12:04:00

标签: python python-2.7 cluster-computing tensorflow slurm

我可以访问计算群集,特别是一个带有两个12核CPU的节点,它与Slurm Workload Manager一起运行。

我想在该系统上运行TensorFlow,但遗憾的是我无法找到有关如何执行此操作的信息,或者甚至是否可能。我是新手,但据我所知,我必须通过创建Slurm作业来运行TensorFlow,并且不能通过ssh直接执行python / tensorflow。

有没有人有关于这个主题的想法,教程或任何类型的来源?

2 个答案:

答案 0 :(得分:22)

这相对简单。

根据您为每个主机请求一个进程的简化假设,slurm将为您提供环境变量中所需的所有信息,特别是SLURM_PROCID,SLURM_NPROCS和SLURM_NODELIST。

例如,您可以按如下方式初始化任务索引,任务数和节点列表:

from hostlist import expand_hostlist
task_index  = int( os.environ['SLURM_PROCID'] )
n_tasks     = int( os.environ['SLURM_NPROCS'] )
tf_hostlist = [ ("%s:22222" % host) for host in
                expand_hostlist( os.environ['SLURM_NODELIST']) ]  

请注意,slurm会为您提供压缩格式的主机列表(例如,“myhost [11-99]”),您需要进行扩展。我用模块主机列表来做  KentEngström,https://pypi.python.org/pypi/python-hostlist

此时,您可以直接使用您可用的信息创建TensorFlow集群规范和服务器,例如:

cluster = tf.train.ClusterSpec( {"your_taskname" : tf_hostlist } )
server  = tf.train.Server( cluster.as_cluster_def(),
                           job_name   = "your_taskname",
                           task_index = task_index )

你已经定了!您现在可以使用通常的语法在分配的特定主机上执行TensorFlow节点放置:

for idx in range(n_tasks):
   with tf.device("/job:your_taskname/task:%d" % idx ):
       ...

上面报告的代码存在缺陷,即所有作业都会指示Tensorflow安装在固定端口22222上侦听的服务器。如果多个此类作业碰巧被安排到同一节点,则第二个将无法侦听22222。

更好的解决方案是让slurm为每项工作预留端口。您需要将您的slurm管理员带到船上并要求他配置slurm,以便它允许您使用--resv-ports选项请求端口。实际上,这需要他们在slurm.conf中添加如下所示的行:

MpiParams=ports=15000-19999

在您对您的slurm管理员提出错误之前,请检查已配置的选项,例如:

scontrol show config | grep MpiParams

如果您的网站已经使用旧版本的OpenMPI,则可能会有类似这样的选项。

然后,修改我的第一段代码如下:

from hostlist import expand_hostlist
task_index  = int( os.environ['SLURM_PROCID'] )
n_tasks     = int( os.environ['SLURM_NPROCS'] )
port        = int( os.environ['SLURM_STEP_RESV_PORTS'].split('-')[0] )
tf_hostlist = [ ("%s:%s" % (host,port)) for host in
                expand_hostlist( os.environ['SLURM_NODELIST']) ]  
祝你好运!

答案 1 :(得分:4)

您可以使用sbatch命令将批处理脚本传递给slurm,例如

sbatch --partition=part start.sh

列出可用分区可以使用sinfo

start.sh (可能的配置)

#!/bin/sh
#SBATCH -N 1      # nodes requested
#SBATCH -n 1      # tasks requested
#SBATCH -c 10      # cores requested
#SBATCH --mem=32000  # memory in Mb
#SBATCH -o outfile  # send stdout to outfile
#SBATCH -e errfile  # send stderr to errfile
python run.py

而run.py包含你想用slurm执行的脚本,即你的tensorflow代码。

您可以在此处查看详细信息:https://slurm.schedmd.com/sbatch.html