#!/bin/bash
#SBATCH --job-name=Parallel# Job name
#SBATCH --output=slurmdiv.out# Output file name
#SBATCH --error=slurmdiv.err # Error file name
#SBATCH --partition=hadoop# Queue
#SBATCH --nodes = 1
#SBATCH --time=01:00:00# Time limit
如果不指定--ntasks-per-node指令,以上脚本将无法运行。每个节点的核心数取决于所使用的队列。我想为每个节点分配最大核心数,而不必在Slurm脚本中提前指定。我正在使用它来运行一个使用detectCores()和mclapply的R脚本。
答案 0 :(得分:0)
您可以尝试将#SBATCH --exclusive
参数添加到提交脚本中,以便Slurm可以为您的工作分配完整的节点,而无需显式指定特定数量的任务。然后,您可以在脚本中使用detectCores()
。