Jean Zay : exécution d'un code parallèle OpenMP en batch

Les travaux sont gérés sur l'ensemble des nœuds par le logiciel Slurm .

Pour soumettre un travail OpenMP en batch sur Jean Zay, il faut :

  • Créer un script de soumission :

    openmp.slurm
    #!/bin/bash
    #SBATCH --job-name=omp              # nom du job
    #SBATCH --nodes=1                   # nombre de noeuds
    #SBATCH --ntasks=1                  # nombre de tâche (un unique processus ici)
    #SBATCH --cpus-per-task=20          # nombre de threads OpenMP
    # /!\ Attention, la ligne suivante est trompeuse mais dans le vocabulaire
    # de Slurm "multithread" fait bien référence à l'hyperthreading.
    #SBATCH --hint=nomultithread        # on réserve des coeurs physiques et non logiques
    #SBATCH --time=00:01:00             # temps d'exécution maximum demande (HH:MM:SS)
    #SBATCH --output=omp%j.out          # nom du fichier de sortie
    #SBATCH --error=omp%j.out           # nom du fichier d'erreur (ici commun avec la sortie)
     
    # nettoyage des modules charges en interactif et herites par defaut
    module purge
     
    # chargement des modules
    module load ...
     
    # echo des commandes lancées
    set -x
     
    # nombre de threads OpenMP
    export OMP_NUM_THREADS=$SLURM_CPUS_PER_TASK 
     
    # Binding
    export OMP_PLACES=cores
     
    # exécution du code
    ./executable_omp
  • Soumettre ce script via la commande sbatch :

    $ sbatch openmp.slurm

Remarques :

  • Nous vous recommandons de compiler et d'exécuter votre code dans un même environnement en chargeant les mêmes modules.
  • Dans cet exemple, on suppose que l'exécutable executable_omp se situe dans le répertoire de soumission, c'est-à-dire le répertoire dans lequel on entre la commande sbatch.
  • Le fichier de sortie du calcul omp<numero_job>.out se trouve également dans le répertoire de soumission. Il est créé dès le début de l'exécution du travail; l'éditer ou le modifier pendant le déroulement du travail peut perturber celui-ci.
  • le module purge est rendu indispensable par le comportement par défaut de Slurm : les modules que vous avez chargés dans votre environnement au moment où vous lancez sbatch sont pris en compte dans le job soumis.
  • Les jobs ont tous des ressources définies dans Slurm par une partition et une “Qualité de Service” QoS (Quality of Service) par défaut. Vous pouvez en modifier les limites en spécifiant une autre partition et/ou une QoS comme indiqué dans notre documentation détaillant les partitions et les Qos.
  • Pour les comptes multi-projets ainsi que ceux ayant des heures CPU et GPU, il est indispensable de spécifier l'attribution d'heures sur laquelle décompter les heures de calcul du job comme indiqué dans notre documentation détaillant la gestion des heures de calcul.
  • Nous vous recommandons fortement de consulter notre documentation détaillant la gestion des heures de calcul sur Jean Zay pour vous assurer que les heures consommées par vos travaux soient décomptées de la bonne attribution.