我可以访问计算群集,特别是一个带有两个12核CPU的节点,它与Slurm Workload Manager一起运行。
我想在该系统上运行TensorFlow,但遗憾的是我无法找到有关如何执行此操作的信息,或者甚至是否可能。我是新手,但据我所知,我必须通过创建Slurm作业来运行TensorFlow,并且不能通过ssh直接执行python / tensorflow。
有没有人有关于这个主题的想法,教程或任何类型的来源?
答案 0 :(得分:22)
这相对简单。
根据您为每个主机请求一个进程的简化假设,slurm将为您提供环境变量中所需的所有信息,特别是SLURM_PROCID,SLURM_NPROCS和SLURM_NODELIST。
例如,您可以按如下方式初始化任务索引,任务数和节点列表:
from hostlist import expand_hostlist
task_index = int( os.environ['SLURM_PROCID'] )
n_tasks = int( os.environ['SLURM_NPROCS'] )
tf_hostlist = [ ("%s:22222" % host) for host in
expand_hostlist( os.environ['SLURM_NODELIST']) ]
请注意,slurm会为您提供压缩格式的主机列表(例如,“myhost [11-99]”),您需要进行扩展。我用模块主机列表来做 KentEngström,https://pypi.python.org/pypi/python-hostlist
此时,您可以直接使用您可用的信息创建TensorFlow集群规范和服务器,例如:
cluster = tf.train.ClusterSpec( {"your_taskname" : tf_hostlist } )
server = tf.train.Server( cluster.as_cluster_def(),
job_name = "your_taskname",
task_index = task_index )
你已经定了!您现在可以使用通常的语法在分配的特定主机上执行TensorFlow节点放置:
for idx in range(n_tasks):
with tf.device("/job:your_taskname/task:%d" % idx ):
...
上面报告的代码存在缺陷,即所有作业都会指示Tensorflow安装在固定端口22222上侦听的服务器。如果多个此类作业碰巧被安排到同一节点,则第二个将无法侦听22222。
更好的解决方案是让slurm为每项工作预留端口。您需要将您的slurm管理员带到船上并要求他配置slurm,以便它允许您使用--resv-ports选项请求端口。实际上,这需要他们在slurm.conf中添加如下所示的行:
MpiParams=ports=15000-19999
在您对您的slurm管理员提出错误之前,请检查已配置的选项,例如:
scontrol show config | grep MpiParams
如果您的网站已经使用旧版本的OpenMPI,则可能会有类似这样的选项。
然后,修改我的第一段代码如下:
from hostlist import expand_hostlist
task_index = int( os.environ['SLURM_PROCID'] )
n_tasks = int( os.environ['SLURM_NPROCS'] )
port = int( os.environ['SLURM_STEP_RESV_PORTS'].split('-')[0] )
tf_hostlist = [ ("%s:%s" % (host,port)) for host in
expand_hostlist( os.environ['SLURM_NODELIST']) ]
祝你好运!
答案 1 :(得分:4)
您可以使用sbatch
命令将批处理脚本传递给slurm,例如
sbatch --partition=part start.sh
列出可用分区可以使用sinfo
。
start.sh (可能的配置):
#!/bin/sh
#SBATCH -N 1 # nodes requested
#SBATCH -n 1 # tasks requested
#SBATCH -c 10 # cores requested
#SBATCH --mem=32000 # memory in Mb
#SBATCH -o outfile # send stdout to outfile
#SBATCH -e errfile # send stderr to errfile
python run.py
而run.py包含你想用slurm执行的脚本,即你的tensorflow代码。
您可以在此处查看详细信息:https://slurm.schedmd.com/sbatch.html