Jean Zay : exécution d'un travail mono GPU en batch

Les travaux sont gérés sur l'ensemble des nœuds par le logiciel Slurm.

Pour soumettre un travail mono GPU en batch sur Jean Zay, il faut d'abord créer un script de soumission.

  • Pour une exécution sur un GPU de la partition gpu par défaut :

    mono_gpu.slurm
    #!/bin/bash
    #SBATCH --job-name=gpu_mono          # nom du job
    # Il est possible d'utiliser une autre partition que celle par défaut
    # en activant l'une des 5 directives suivantes :
    ##SBATCH -C v100-16g                 # decommenter pour reserver uniquement des GPU V100 16 Go
    ##SBATCH -C v100-32g                 # decommenter pour reserver uniquement des GPU V100 32 Go
    ##SBATCH --partition=gpu_p2          # decommenter pour la partition gpu_p2 (GPU V100 32 Go)
    ##SBATCH -C a100                     # decommenter pour la partition gpu_p5 (GPU A100 80 Go)
    # Ici, reservation de 10 CPU (pour 1 tache) et d'un GPU sur un seul noeud :
    #SBATCH --nodes=1                    # on demande un noeud
    #SBATCH --ntasks-per-node=1          # avec une tache par noeud (= nombre de GPU ici)
    #SBATCH --gres=gpu:1                 # nombre de GPU par noeud (max 8 avec gpu_p2, gpu_p5)
    # Le nombre de CPU par tache doit etre adapte en fonction de la partition utilisee. Sachant
    # qu'ici on ne reserve qu'un seul GPU (soit 1/4 ou 1/8 des GPU du noeud suivant la partition),
    # l'ideal est de reserver 1/4 ou 1/8 des CPU du noeud pour la seule tache:
    #SBATCH --cpus-per-task=10           # nombre de CPU par tache (1/4 des CPU du noeud 4-GPU)
    ##SBATCH --cpus-per-task=3           # nombre de CPU par tache pour gpu_p2 (1/8 des CPU du noeud 8-GPU)
    ##SBATCH --cpus-per-task=8           # nombre de CPU par tache pour gpu_p5 (1/8 des CPU du noeud 8-GPU)
    # /!\ Attention, "multithread" fait reference à l'hyperthreading dans la terminologie Slurm
    #SBATCH --hint=nomultithread         # hyperthreading desactive
    #SBATCH --time=00:10:00              # temps maximum d'execution demande (HH:MM:SS)
    #SBATCH --output=gpu_mono%j.out      # nom du fichier de sortie
    #SBATCH --error=gpu_mono%j.out       # nom du fichier d'erreur (ici commun avec la sortie)
     
    # Nettoyage des modules charges en interactif et herites par defaut
    module purge
     
    # Decommenter la commande module suivante si vous utilisez la partition "gpu_p5"
    # pour avoir acces aux modules compatibles avec cette partition
    #module load cpuarch/amd
     
    # Chargement des modules
    module load ...
     
    # Echo des commandes lancees
    set -x
     
    # Pour la partition "gpu_p5", le code doit etre compile avec les modules compatibles
    # Execution du code
    ./executable_mono_gpu

    Pour lancer un script Python, il faut remplacer la dernière ligne par :

    # Execution du code
    python -u script_mono_gpu.py

    Remarque : l'option -u (pour unbuffered) de python permet de désactiver la bufférisation des sorties standards qui est automatiquement effectuée par Slurm.

On soumet ensuite le script batch via la commande sbatch :

 $ sbatch mono_gpu.slurm 

Remarques :

  • Pour une exécution sur la partition gpu_p2, il faut spécifier --partition=gpu_p2 et --cpus-per-task=3.
  • Pour une exécution sur la partition gpu_p5, il faut spécifier -C a100 et --cpus-per-task=8. Attention : les modules accessibles par défaut ne sont pas compatibles avec cette partition, il est nécessaire de charger préalablement le module cpuarch/amd pour pouvoir lister et charger les modules compatibles. Pour en savoir plus, consultez la section Modules compatibles avec la partition gpu_p5.
  • Nous vous recommandons de compiler et d'exécuter votre code dans un même environnement en chargeant les mêmes modules.
  • Dans cet exemple, on suppose que l'exécutable executable_mono_gpu ou le script script_mono_gpu.py se situe dans le répertoire de soumission, c'est-à-dire le répertoire dans lequel on entre la commande sbatch.
  • Par défaut, Slurm bufferise les sorties standards d'un script Python, ce qui peut impliquer un délai important entre l'exécution du script et la visualisation de ces sorties dans les logs. Pour désactiver cette bufférisation, il faut ajouter l'option -u (pour unbuffered) à l'appel python. Sachez que positionner la variable d'environnement PYTHONUNBUFFERED à 1 dans votre script de soumission (export PYTHONUNBUFFERED=1) a le même effet. Cette variable est positionnée par défaut dans les environnements virtuels installés par l'assistance sur Jean Zay.
  • Le fichier de sortie du calcul mono_gpu<numero_job>.out se trouve également dans le répertoire de soumission. Il est créé dès le début de l'exécution du travail; l'éditer ou le modifier pendant le déroulement du travail peut perturber celui-ci.
  • Le module purge est rendu indispensable par le comportement par défaut de Slurm : les modules que vous avez chargés dans votre environnement au moment où vous lancez sbatch sont pris en compte dans le job soumis.
  • Les jobs ont tous des ressources définies dans Slurm par une partition et une “Qualité de Service” QoS (Quality of Service) par défaut. Vous pouvez en modifier les limites en spécifiant une autre partition et/ou une QoS comme indiqué dans notre documentation détaillant les partitions et les Qos.
  • Pour les comptes multi-projets ainsi que ceux ayant des heures CPU et GPU, il est indispensable de spécifier l'attribution d'heures sur laquelle décompter les heures de calcul du job comme indiqué dans notre documentation détaillant la gestion des heures de calcul.
  • Nous vous recommandons fortement de consulter notre documentation détaillant la gestion des heures de calcul sur Jean Zay pour vous assurer que les heures consommées par vos travaux soient décomptées de la bonne attribution.