DLO-JZ (Deep Learning Optimisé sur Jean Zay)

Responsable :

Objectif :

Cette formation a pour objectif de passer en revue les principales techniques actuelles d'optimisation d'un apprentissage machine en Deep Learning, avec pour but le passage à l'échelle sur un supercalculateur. Les problématiques associées d'accélération et de distribution sur plusieurs GPU seront abordées, d'un point de vue système et algorithmique.

Public concerné :

Cette formation s'adresse aux utilisateurs et utilisatrices IA de Jean Zay ou aux personnes qui maîtrisent les fondamentaux du Deep Learning et qui souhaitent se former aux enjeux du passage à l'échelle.

Pré-requis :

Les pré-requis nécessaires sont :

  • maîtriser les notions de l'apprentissage en Deep Learning
  • maîtriser Python
  • avoir des bases en PyTorch pour le bon déroulement des TP

Durée et modalités :

Cette formation dure 4 jours, de 9h30 à 18h (au plus tard).
Elle a lieu uniquement en présentiel dans les locaux de l'IDRIS à Orsay (91).

Assistance :

maximale : 16 personnes ; minimale : 10 personnes

Contenu de la formation :

Cette formation est dédiée au passage à l'échelle multi-GPU de l'entraînement d'un modèle en Deep Learning. Le fil conducteur des aspects pratiques de la formation est la mise à l'échelle optimisée (accélération, distribution) d'un entraînement de modèle sur la base de données Imagenet, en PyTorch. Pour cela, les participant·e·s seront amené.e.s à coder et soumettre leurs calculs sur Jean Zay en appliquant les différentes notions abordées pendant les parties de cours.

Plan :

Jour 1

  • Présentation de la formation DLO-JZ
  • Le supercalculateur Jean Zay
  • Les enjeux de la montée à l'échelle
  • L'accélération GPU
  • La précision mixte
  • L'optimisation des formats de tenseur (channels last memory format)

Jour 2

  • Entraînement distribué : notions générales et parallélisme de données
  • Profiler PyTorch
  • Optimisation du prétraitement des données sur CPU (DataLoader)

Jour 3

  • Le stockage et le format des données d'entrée (webdataset)
  • Les outils de visualisation d'entraînement (TensorBorad, MLflow, Weight and Biases,…)
  • Les techniques d'entraînement large batches (lr scheduler, optimiseurs large batches,…)
  • Les techniques d'optimisation de recherche des hyperparamètres

Jour 4

  • La compilation (JIT)
  • Les bonnes pratiques (petits modèles)
  • Les différents parallélismes de modèle
  • Les API pour les parallélismes de modèle

Équipement :

Les parties pratiques se dérouleront sur le supercalculateur Jean Zay de l'IDRIS.

Les supports de cours ne sont pas fournis au format papier. Ils sont disponibles sur notre site web : http://www.idris.fr/formations/dlo-jz/

Intervenants :

S’inscrire à cette formation :

Pour vous inscrire à cette formation, contactez CNRS Formation Entreprises : .

Accéder à la fiche de cette formation dans le catalogue CNRS Formation entreprises : https://cnrsformation.cnrs.fr/deep-learning-optimise-sur-supercalculateur?axe=160

Si vous êtes personnel du CNRS ou d'une université française, votre inscription est gratuite via notre serveur : https://cours.idris.fr