ORCA sur Jean Zay

Présentation

ORCA est un outils de chimie quantique généraliste avec une spécialisation dans la spectroscopie.

Liens utiles

Versions disponibles

VersionModules à charger
5.0.3 orca/5.0.3-mpi
5.0.1 orca/5.0.1-mpi
5.0.0 orca/5.0.0-mpi
4.2.0 orca/4.2.0-mpi-cuda

Attention : ce produit ne peut pas être utilisé sur GPU. Le CUDA qui apparaît dans le nom du module vient de la dépendance à OpenMPI.

Avertissement

Le message suivant apparaît lors de l'exécution du code :

  The library attempted to open the following supporting CUDA libraries,
  but each of them failed.  CUDA-aware support is disabled.
  libcuda.so.1: cannot open shared object file: No such file or directory
  libcuda.dylib: cannot open shared object file: No such file or directory
  /usr/lib64/libcuda.so.1: cannot open shared object file: No such file or directory
  /usr/lib64/libcuda.dylib: cannot open shared object file: No such file or directory
  If you are not interested in CUDA-aware support, then run with
  --mca mpi_cuda_support 0 to suppress this message.  If you are interested
  in CUDA-aware support, then try setting LD_LIBRARY_PATH to the location
  of libcuda.so.1 to get passed this issue.

Il est lié à l'implémentation de OpenMPI CUDA-aware utilisée. Il ne s'agit pas d'une erreur mais d'un avertissement qui peut être ignoré.

Script de soumission sur la partition CPU

Attention : Il est nécessaire de spécifier le chemin complet de l'exécutable orca.

Nous vous conseillons d'utiliser un seul nœud de calcul.

orca.slurm
#!/bin/bash
#SBATCH --nodes=1               # Number of Nodes
#SBATCH --ntasks-per-node=40    # Number of MPI tasks per node
#SBATCH --cpus-per-task=1       # Number of OpenMP threads
#SBATCH --hint=nomultithread    # Disable hyperthreading
#SBATCH --job-name=orca         # Jobname
#SBATCH --output=%x.o%j         # Output file %x is the jobname, %j the jobid
#SBATCH --error=%x.o%j          # Error file
#SBATCH --time=20:00:00         # Expected runtime HH:MM:SS (max 100h)
##
## Please, refer to comments below for
## more information about these 4 last options.
##SBATCH --account=<account>@cpu       # To specify cpu accounting: <account> = echo $IDRPROJ
##SBATCH --partition=<partition>       # To specify partition (see IDRIS web site for more info)
##SBATCH --qos=qos_cpu-dev      # Uncomment for job requiring less than 2 hours
##SBATCH --qos=qos_cpu-t4      # Uncomment for job requiring more than 20h (up to 4 nodes)
 
# Cleans out the modules loaded in interactive and inherited by default
module purge
 
# Load the module
module load orca/5.0.3-mpi
 
# Execute command with full path
$(which orca) input_opt >  opt.out

Script de soumission sur la partition GPU

Soumission impossible.

Remarques

  • Les jobs ont tous des ressources définies dans Slurm par une partition et une “Qualité de Service” QoS (Quality of Service) par défaut. Vous pouvez en modifier les limites en spécifiant une autre partition et/ou une QoS comme indiqué dans notre documentation détaillant les partitions et les Qos.
  • Pour les comptes multi-projets ainsi que ceux ayant des heures CPU et GPU, il est indispensable de spécifier l'attribution d'heures sur laquelle décompter les heures de calcul du job comme indiqué dans notre documentation détaillant la gestion des heures de calcul.