sbatch:错误:批处理作业提交失败:请求的节点配置不可用

时间:2020-09-24 20:38:47

标签: configuration gpu nodes slurm sbatch

问题与分配给作业的CPU数量无关。在发生此问题之前,我通过运行“ NVIDIA-Linux-x86_64-410.79.run --no”解决了该错误,从而导致Nvidia驱动程序配置出现错误,导致无法通过“ nvidia-smi”检测到GPU。 -drm'我遇到此错误。非常感谢您的帮助!

PS 在出现第一个问题之前,我可以顺利进行类似的工作

command: sbatch md.s
sbatch: error: Batch job submission failed: Requested node configuration is not available


command: 'sinfo -o "%g %.10R %.20l %.10c"'
GROUPS  PARTITION            TIMELIMIT       CPUS
all gpucompute             infinite         32


command:'sinfo -Nl'
Thu Sep 24 21:06:35 2020
NODELIST        NODES   PARTITION       STATE CPUS    S:C:T MEMORY TMP_DISK WEIGHT AVAIL_FE REASON              
fwb-lab-tesla1      1 gpucompute*       down*   32   32:1:1  64000        0      1   (null) Not responding     


md.s
!/bin/bash

SBATCH --job-name=Seq1_md1
SBATCH --nodes=1
SBATCH --cpus-per-task=2
SBATCH --mem=3GB
SBATCH --mem-per-cpu=1gb
SBATCH --gres=gpu:Titan
SBATCH --mail-user=shirin.jamshidi@kcl.ac.uk
SBATCH --mail-type=ALL

module purge
module load amber/openmpi/intel/16.06   
Navigate where data is
cd /home/SCRATCH/Seq1

mpirun -np 1 pmemd.cuda.MPI -O -i md1.in -o Seq1_md1.out -p Seq1.prmtop -c Seq1_min2.rst -r Seq1_md1.rst -x Seq1_md1.mdcrd -e Seq1_md1.mden -ref Seq1_min2.rst > md1.log

1 个答案:

答案 0 :(得分:0)

sinfo命令将节点报告为down*,这意味着该节点被slurm标记为down并且slurmd无法访问。因此,节点肯定存在问题,您无法从用户端解决问题。