如何动态分配每个节点的核心数?

时间:2019-05-26 17:33:03

标签: slurm

#!/bin/bash
#SBATCH --job-name=Parallel# Job name
#SBATCH --output=slurmdiv.out# Output file name
#SBATCH --error=slurmdiv.err # Error file name
#SBATCH --partition=hadoop# Queue
#SBATCH --nodes = 1
#SBATCH --time=01:00:00# Time limit 

如果不指定--ntasks-per-node指令,以上脚本将无法运行。每个节点的核心数取决于所使用的队列。我想为每个节点分配最大核心数,而不必在Slurm脚本中提前指定。我正在使用它来运行一个使用detectCores()和mclapply的R脚本。

1 个答案:

答案 0 :(得分:0)

您可以尝试将#SBATCH --exclusive参数添加到提交脚本中,以便Slurm可以为您的工作分配完整的节点,而无需显式指定特定数量的任务。然后,您可以在脚本中使用detectCores()